Psychologia poznawcza Edward Nęcka Jarosław Orzechowski Błażej Szymura
A C A D E M I C A W y d a w n i c t w o SWPS ą
W Y D A W N IC T W O WARSZAWA 2 0 0 6
NAUKOWE
PWN
Spis treści
P rzed m ow a...................................................................................
13
Prolog Rozdział Umysł i pozn an ie ............................................................................................................. 1.1. Poznanie - umysł - d z ia ła n ie ............................................................................................... 1.1.1. Umysł jako system przetwarzania in fo rm acji....................................................... 1.1.2. Jedność poznania i d ziałan ia..................................................................................... 1.2. Psychologia poznawcza: dziedzina czy paradygm at........................................................ 1.2.1. Narodziny i rozwój psychologii poznaw czej........................................................... 1.2.2. Psychologia a inne dziedziny badań nad poznaniem ............................................ 1.2.3. Metody badań nad poznaniem ................. ................................................................. 1.3. Ogólna architektura u m y słu ................................................................................................. 1.3.1. Blokowe modele u m y słu ............................................................................................ 1.3.2. Koncepcja poziomów p rz etw arz an ia....................................................................... 1.3.3. Umysł jako system m odułow y ...................................................................... 1.3.4. Sieciowe modele u m y słu ............................................................ 1.4. P odsum ow anie........................................................................................................................
21 23 23 29 31 31 34 37 45 46 49 51 53 56
Część I. Reprezentacje poznawcze Rozdział Istota i forma reprezentacji u m ysłow ych ................................. 2.1. Pojęcie reprezentacji um ysłow ej.......................................................................................... 2.1.1. Reprezentacje a procesy poznaw cze......................................................................... 2.1.2. Realizm a k o n stru k ty w izm ........................................................................................ 2.1.3. Rodzaje reprezentacji umysłowych........................................................................... 2.2. Reprezentacje obrazow e........................................................................................................ 2.2.1. Wyobraźnia, wyobrażenia i obrazy um ysłowe........................................................ 2.2.2. Teoria reprezentacji obrazowych Kosslyna.............................................................
59 60 60 61 62 64 64 65
b
Spis treści
2.2.3. Hipoteza funkcjonalnej ekwiwalencji percepcji i w yobraźni............................. 2.2.4. Rotacje m e n ta ln e ........................................................................................................ 2.2.5. Skaning m en taln y ........................................................................................................ 2.2.6. Krytyka stanowiska o b razo w ego............................................................................. 2.3. Reprezentacje w e rb a ln e ........................................................................................................ 2.3.1. Weryfikacja sylogizmów i treści zd ań ...................................................................... 2.3.2. Teoria podwójnego k o d o w a n ia ............................................................................... 2.3.3. Słowo i obraz - wzajemne r e la c je .......................................................................... 2.3.4. Reprezentacje n u m e ry c z n e ...................................................................................... 2.4. Pierwotność czy wtórność nietrwałych reprezentacji um ysłow ych............................. 2.4.1. Hipoteza języka m y śli................................................................................................ 2.4.2. Teoria pierwotnych reprezentacji w formiezbioru sądów Pylyshyna................ 2.4.3. Teoria modeli mentalnych Johnson-Lairda............................................................ 2.4.4. Stanowisko eklektyczne w sporze o kod reprezentacji u m ysłow ych.............. 2.5. Podsum ow anie.........................................................................................................................
Rozdział Pojęcia i sc h e m a ty .......................................................................... 3.1. Konstrukt reprezentacji pojęciow ej.................................................................................... 3.1.1. Istota i funkcje reprezentacji pojęciow ych...................................... 3.1.2. Ogólne właściwości p o ję ć ......................................................................................... 3.1.3. Pojęcia matrycowe i n atu raln e.................................................................................. 3.2. Struktura i funkcjonowanie reprezentacji pojęciow ych................................................ 3.2.1. Teorie k lasyczne.......................................................................................................... 3.2.2. Teorie probabilistyczne.............................................................................................. 3.2.3. Teorie prototypów ........................................................................................................ 3.2.4. Teorie egzem plarzy..................................................................................................... 3.2.5. Porównanie koncepcji reprezentacji pojęciowych................................................ 3.3. Dynamiczna koncepcja umysłu, czyli o relacjach między p o jęciam i.......................... 3.3.1. Teorie sieci sem an ty c zn ej......................................................................................... 3.3.2. Złożone struktury sieciow e....................................................................................... 3.3.3. Teoria schem atów ........................................................................................................ 3.3.4. Teoria r a m .................................................................................................................... 3.3.5. Teoria planów, scen i te m a tó w ............................................................................... 3.3.6. Porównanie koncepcji struktur sieciowych............................................................ 3.4. Podsum ow anie.........................................................................................................................
Rozdział W ied za 4.1. Rodzaje wiedzy......................................................................................................................... 4.1.1. Wiedza deklaratywna i p ro ced u raln a...................................................................... 4.1.2. Wiedza jawna i niejaw na......................................................................................... . 4.2. Organizacja wiedzy................................................................................................................. 4.2.1. Reprezentacja wiedzy za pomocą cech ................................................................... 4.2.2. Organizacja wiedzy sem an ty czn ej................ 4.2.3. Organizacja wiedzy proceduralnej: systemy reg u ł................................................. 4.2.4. Organizacja wiedzy w modelach ACT, ACT*i A C T -R ........................................
66 67 72 75 76 76 80 82 86 89 89 91 95 96 97
98 99 99 100 102 103 103 108 112 123 125 126 126 128 129 132 133 134 135
136 138 138 140 148 148 151 157 159
Spis treści 4.3. Nabywanie w ied z y ............................................................ 4.3.1. Nabywanie wiedzy sem antycznej.............................................................................. 4.3.2. Nabywanie wiedzy proceduralnej.............................................................................. 4.3.3. Nabywanie wiedzy niejaw nej..................................................................................... 4.4. Wiedza ekspercka..................................................................................................................... 4.4.1. Kryteria i właściwości wiedzy ek sp erck iej............................................................. 4.4.2. Nabywanie wiedzy eksperckiej................................................................................... 4.5. Podsum ow anie.........................................................................................................................
7 163 163 164 166 168 168 173 174
Część II. Elementarne procesy poznawcze Rozdział Uwaga i św iad om ość.........................................................................
\n
5.1. Istota i aspekty uw agi................................................................................................................. 5.2. Teorie u w a g i............................................................................................................................... 5.2.1. Teorie selekcji źródła informacji ........................................................................... 5.2.2. Teorie przeszukiwania pola percepcyjnego................... 5.2.3. Teorie przedłużonej koncentracji.............................................................................. 5.2.4. Teorie podzielności...................................................................................................... 5.2.5. Teorie p rzerzutności.................................................................................................... 5.3. Uwaga, percepcja i (nie)świadom ość...................................................................................... 5.3.1. Analiza wskazówek peryferycznych......................................................................... 5.3.2. Reakcje na informacje odrzucane.............................................................................. 5.3.3. Poprzedzanie podprogowe.......................................................................................... 5.4. Podsum ow anie.........................................................................................................................
178 186 187 195 200 209 217 221 223 224 225 ,228
Rozdział Kontrola poznawcza...........................................................................
229 6.1. Czynności automatyczne i autom atyzacja............................................................................ 231 6.1.1. Kryteria automatyczności p rzetw arzan ia............................................................... 231 6.1.2. Schneidera i Shiffrina teoria k o n tin u u m ............................................................... 233 239 6.1.3. Logana teoria rywalizacji egzemplarzy.................................................................... 6.1.4. Konsekwencje automatyzacji czynności.................................................................. 248 6.2. Hamowanie jako mechanizm kontrolny................................................................................. 251 6.2.1. Istota i funkcje ham o w ania....................................................................................... 251 6.2.2. Hamowanie dominującej re a k c ji.............................................................................. 253 6.2.3. Odporność na dystrakcję............................................................................................ 255 6.2.4. Odporność na interferencję proaktyw ną................................. 261 6.2.5. Czy hamowanie jest konstruktem jednorodnym ?................................................. 262 6.3. Funkcje z a rz ą d c z e ............................................................................................ 6.3.1. Istota funkcji zarządczych czyli homunculus o d n a le z io n y ................................ 266 6.3.2. Rodzaje funkcji zarządczych..................................................................................... 267 6.3.3. Mechanizm zarządczy w koncepcji uwagi P o sn e ra .............................................. 269
B
Spis treści
6.3.4. Dwustopniowy system kontroli zachowania w koncepcji Shallice’a .............. 6.3.5. Centralny system wykonawczy pamięci roboczej w modelu B addeleya 6.4. Podsum ow anie.......................................................................
Rozdział / Percepcja................... 7.1. Podstawowe właściwości p e rce p cji.................................................................................... 7.1.1. Recepcja sensoryczna i percepcja umysłowa.......................................................... 7.1.2. Naiwne koncepcje sp ostrzegania............................................................................. 7.1.3. Spostrzeganie a rozpoznawanie wzorców............................................................... 7.2. Spostrzeganie jako proces o d d o ln y .................................................................................... 7.2.1. Odbiór i kodowanie wrażeń zm ysłowych............................................................... 7.2.2. Magazyny informacji sensorycznej........................................................................... 7.2.3. Spostrzeganie g łę b i..................................................................................................... 7.2.4. Identyfikacja obiektu................................................................................................... 7.3. Spostrzeganie jako proces o d g ó rn y .................................................................................... 7.3.1. Stałość sp o strz e g a n ia .................................................................................... 7.3.2. N asta w ie n ie ................................................................................................................. 7.3.3. Złudzenia i błędy p ercep cji.................................... 7.3.4. Wpływ kontekstu na sp o strzeg an ie........................................................................ 7.4. Teorie p e rc e p c ji...................................................................................................................... 7.4.1. Teoria aso cjacjonistyczna......................................................................................... 7.4.2. Teoria postaciow a........................................................................................................ 7.4.3. Teoria w z o rc ó w .......................................................................................................... 7.4.4. Teoria c e c h .................................................................................................................... 7.4.5. Teoria o b liczen io w a................................................................................................... 7.4.6. Teoria ek o lo g iczn a..................................................................................................... 7.5. Proces spostrzegania w praktyce......................................................................................... 7.5.1. Spostrzeganie twarzy................................................................................................... 7.5.2. Czytanie s łó w ............................................................................................................... 7.6. Podsum ow anie.................................................................................................................
Rozdział P a m ię ć ................................................................................................ 8.1. Natura pam ięci......................................................................................................................... 8.1.1. Rodzaje i funkcje p a m ię c i......................................................................................... 8.1.2. Blokowe (magazynowe) modele p a m ię c i............................................................... 8.1.3. Procesualne modele p a m ię c i.................................................................................... 8.2. Systemy pamięci p rzem ijającej............................................................................................ 8.2.1. Pamięć s e n so ry c z n a .................................................................................................. 8.2.2. Pamięć k ró tk o trw ała.................................................................................................. 8.2.3. Pamięć robocza: wielokomponentowy model Baddeleya.................................... 8.2.4. Pamięć robocza: modelaktywacyjny C ow ana....................................................... 8.2.5. Model długotrwałej pamięci roboczej Ericssona i K intscha............................... 8.2.6. Pamięć p ro sp ek ty w n a................................................................................................ 8.3. Systemy pamięci trw a łe j....................................................................................................... 8.3.1. Pamięć sem antyczna.................................................................................................
271 274 276
211 278 278 280 281 283 283 285 288 292 295 295 296 297 298 299 299 301 303 305 307 309 312 312 314 317
319 320 320 326 333 340 340 343 349 355 358 360 363 363
Spis treści 8.3.2. Pamięć ep izo d y czn a.................................................................................................... 8.3.3. Pamięć autobiograficzna............................................................................................ 8.4. Podsum ow anie........................................................................................................................
Rozdział Czynności p am ięciow e................................................................... 9.1. Fazy procesu pamięciowego: prawda czy z łu d zen ie?...................................................... 9.2. Zapam iętywanie....................................................................................................................... 9.2.1. Procesy k o d o w an ia...................................................................................................... 9.2.2. Interferencja proaktyw na............................................................................................ 9.2.3. Konsolidacja śladu pam ięciow ego........................................................................... 9.2.4. Techniki m nem oniczne............................................................................................... 9.3. Przechowywanie....................................................................................................................... 9.3.1. Zapom inanie.................................................................................................................. 9.3.2. Interferencja retroaktywna.......................................................................................... 9.3.3. Zanikanie śladu kontra utrata d o s tę p u .................................................................. 9.3.4. Reminiscencja................................................................................................................ 9.4. Odpamiętywanie....................................................................................................................... 9.4.1. Rodzaje odpam iętywania............................................................................................ 9.4.2. Rola wskazówek naprowadzających i kontekstu ................................................... 9.5. Zawodność p a m ię c i................................................................................................................ 9.5.1. Pamięć naocznych świadków..................................................................................... 9.5.2. Fałszywe w sp o m n ien ia............................................................................................... 9.5.3. A m nezja............................................................................................................. 9.6. Podsum ow anie.........................................................................................................................
9 366 369 371
372 373 377 377 387 389 390 396 396 397 399 400 403 403 407 409 409 412 414 416
Część III. Złożone procesy poznawcze Rozdział Myślenie i rozum ow anie................................................................ 10.1. Istota m yślenia....................................................................................................................... 10.2. Rodzaje m y ślen ia.................................................................................................................. 10.2.1. Myślenie autystyczne i re a listy c z n e .................................................................... 10.2.2. Myślenie produktywne i reproduktyw ne............................................................. 10.2.3. Myślenie twórcze i o d tw ó rc z e .............................................................................. 10.2.4. Myślenie k ry ty c z n e ................................................................................................. 10.2.5. Od myślenia sensoryczno-motorycznego do postform alnego........................ 10.3. Teorie m y śle n ia .................................................................................................................... 10.3.1. Teoria Berlyne’a ...................................................................................................... 10.3.2. Teoria B a ro n a ........................................................................................................... 10.4. Struktura m yślenia................................................................................................................ 10.4.1. Elementy struktury m y śle n ia ............................... 10.4.2. Operacje i s tra te g ie ................................................................................................. 10.4.3. Reguły, algorytmy i h eurystyki.............................................................................. 10.4.4. Myślenie a inne złożone procesy poznaw cze......................................................
419 421 425 425 426 427 428 429 430 431 433 436 436 437 439 442
iu
spis treści
10.5. Rozumowanie dedukcyjne ................................. 10.5.1. Dedukcja i indukcja................................................................................................. 10.5.2. Rozumowanie sylogistyczne.................................................................................. 10.5.3. Błędy rozumowania sylogistycznego................................................................... 10.5.4. Wpływ wiedzy i kontekstu na rozumowanie sylogistyczne............................. 10.6. Rozumowanie w a ru n k o w e ................................................................................................. 10.6.1. Istota rozumowania w arunkow ego...................................................................... 10.6.2. Błędy rozumowania w arunkow ego...................................................................... 10.6.3. Wpływ wiedzy i kontekstu na rozumowanie w arunkow e............................... 10.7. Teorie rozumowania dedukcyjnego................................................................. 10.7.1. Teoria abstrakcyjnych re g u ł.................................................................................. 10.7.2. Teoria modeli m e n taln y ch .................................................................................... 10.8. Rozumowanie indukcyjne................................................................................................... 10.8.1. Testowanie h ip o te z ................................................................................................. 10.8.2. Rozumowanie przez analogię................................................................................ 10.9. Inne rodzaje ro zu m o w an ia................................................................................................. 10.9.1. Rozumowanie p ro b ab ilisty czn e........................................................................... 10.9.2. Rozumowanie nieform alne.................................................................................... 10.10. Podsum ow anie.................................
444 444 447 449 453 455 455 456 458 462 462 465 472 472 473 478 478 479 481
Rozdział Rozwiązywanie problem ów ..........................................................
483
11.1. Problem i rozwiązywanie problem u.................................................................................. 11.2. Typy problem ów .................................................................................................................... 11.2.1. Podział problemów ze względu na ich cechy i s tru k tu rę ............................... 11.2.2. Podział problemów ze względu na wymagania poznawcze............................. 11.3. Teorie rozwiązywania problem ów .................................................................................... 11.3.1. Teoria Newella i S im o n a ....................................................................................... 11.3.2. Inne ujęcia teoretyczne procesu rozwiązywania p ro b le m ó w ........................ 11.4. Heurystyki rozwiązywania problemów............................................................................. 11.4.1. M etoda redukcji różnicy......................................................................................... 11.4.2. M etoda poruszania się w s te c z ............................................................................. 11.4.3. M etoda analizy środków i celów........................................................................... 11.5. Fazy rozwiązywania p ro b lem ó w ....................................................................................... 11.5.1. Faza identyfikacji p ro b lem u.................................................................................. 11.5.2. Faza definiowania problemu.................................................................................. 11.5.3. Faza doboru strateg ii.............................................................................................. 11.5.4. Faza zdobywania inform acji.................................................................................. 11.5.5. Faza alokacji zasobów . ............................................................ 11.5.6. Faza m onitorowania p o s tę p u ................................................................................ 11.5.7. Faza oceny poprawności rozw iązania................................................................. 11.6. Przeszkody w rozwiązywaniu p ro b lem ó w ...................................................................... 11.6.1. Sztywność m yślenia...................................................................... 11.6.2. Nastawienie. . . ..................................................................................................... 11.6.3. Fiksacja fu n k c jo n a ln a ............................................................................................ 11.7. Czynniki wspomagające rozwiązywanie problem ów ..................................................... 11.7.1. Transfer pozytyw ny.................................... 11.7.2. Transfer przez a n a lo g ię .........................................................................................
484 486 487 491 498 498 502 503 503 507 507 512 513 514 519 523 524 527 528 529 529 530 531 533 533 534
Spis treści
11
11.7.3. In k u b a c ja .................................................................................................................. 11.7.4. W g lą d ......................................................................................................................... 11.8. Rozwiązywanie złożonych problem ów .............................................................................. 11.9. Podsum ow anie.......................................................................................................................
535 537 541 546
Rozdział Wydawanie sądów i podejmowanie decyzji
548
12.1. Wydawanie s ą d ó w ................................................................................................................ 12.1.1. Tendencyjność w wydawaniu sądów.................................................................... 12.1.2. Ignorowanie proporcji podstaw ow ej.................................................................... 12.1.3. Wady i zalety prostych h eurystyk ......................................................................... 12.1.4. Sądy in tu ic y jn e ................. 12.2. Podejmowanie decyzji........................................................................................................... 12.2.1. Klasyczna teoria decyzji.......................................................................................... 12.2.2. Strategie w podejmowaniu d ecy zji....................................................................... 12.2.3. Teoria perspektyw y................................................................................................. 12.2.4. Proces podejmowania decyzji................................................................................ 12.3. Podsum ow anie.......................................................................................................................
549 550 557 561 563 572 572 576 581 584 588
Rozdział Język i m o w a .....................................................................................
589
13.1. Natura języka......................................................................................................................... 13.1.1. Język jako s y s te m .................................................................................................... 13.1.2. Poziomy ję z y k a ......................................................................................................... 13.1.3. Język a p o z n a n ie ...................................................................................................... 13.2. Przyswajanie ję z y k a ............................................................................................................. 13.2.1. Problem natyw izm u................................................................................................. 13.2.2. Stadia przyswajania języka..................................................................................... 13.2.3. Dwujęzyczność i wielojęzyczność.................................... 13.3. M ów ienie................................................................................................................................. 13.3.1. Planowanie m o w y .................................................................................................... 13.3.2. Kodowanie sem antyczno-syntaktyczne............................................................... 13.3.3. Kodowanie fo n o lo g iczne........................................................................................ 13.4. Rozumienie przekazów językowych................................................................................... 13.4.1. Złamanie k o d u ......................................................................................................... 13.4.2. Rozbiór zdania........................................................................................................... 13.4.3. Budowa modelu sytuacyjnego i w nioskow anie................................................. 13.5. Podsum ow anie.......................................................................................................................
590 590 594 599 602 602 607 609 612 612 615 616 619 619 621 625 628
Słownik term inów .........................
269
B ibliografia........................................................................................
663
Indeks n azw isk ..................................................................................................................
721
Indeks rzeczow y .............................................
733
Przedmowa
Przygotowując do druku nowy podręcznik, trzeba mieć przekonanie o sensow ności jego wydania. Sprawa jest stosunkowo prosta, gdy na rynku nie ma żadnego podręcznika z danej dziedziny; w takim przypadku cokolwiek jest lep sze niż nic. Tymczasem na polskim rynku wydawniczym jest kilka podręczników z psychologii poznawczej. Co więc motywowało nas do podjęcia się tej nielekkiej i odpowiedzialnej pracy? Przede wszystkim wyszliśmy z założenia, że polscy studenci powinni się posługiwać podręcznikami polskich autorów. Psychologia nie jest wprawdzie zasadniczo inna w Polsce niż w innych krajach świata, inne są jednak oczekiwania odbiorców, tradycje nauczania określonych przedmiotów, systemy edukacyjne, wreszcie mentalność wykładowców i studentów. Dotyczy to szczególnie podręczników napisanych przez autorów z USA. W amerykańskim systemie kształcenia na poziomie college’u nie ma kierunków studiowania w naszym rozumieniu. Przez pierwsze dwa lata student studiuje na wydziale 0 szerokim profilu, a dopiero na III i IV roku wybiera specjalizację, którą mo że być psychologia. Uprawnienia zawodowe uzyskuje się w toku dalszych stu diów, np. magisterskich lub doktorskich. Z tego powodu kursy z psychologii, zwłaszcza na poziomie podstawowym, muszą być dostosowane do odbiorców, którzy niewiele wiedzą o psychologii i w większości nie będą się w tej dziedzinie specjalizować. To samo siłą rzeczy dotyczy podręczników, które dostosowuje się poziomem i sposobem prezentacji treści do „studenta-hobbysty”, a niekoniecz nie do przyszłego profesjonalisty. Na bogatym i różnorodnym rynku amerykań skim istnieją oczywiście podręczniki zaawansowane, ale w Polsce i innych kra jach wybiera się do przekładów raczej te podstawowe. Pisząc Psychologię poznawczą, mieliśmy świadomość, że będziemy kon kurować nie tylko z kilkoma pozycjami tłumaczonymi, ale również z jedną oryginalną pozycją polską: Psychologią poznania Tomasza Maruszewskiego (2002). Znaczenie tej książki trudno przecenić, ponieważ jest to pierwszy polski podręcznik z tej tematyki. Nasza publikacja została zaprojektowana w ten sposób, aby raczej uzupełniała książkę Tomasza Maruszewskiego, niż ją zastępowała. Znacznie więcej miejsca poświęciliśmy złożonym procesom poznawczym. Dodaliśmy też bloki rozszerzające o charakterze merytorycznym 1 metodologicznym. W wyniku tych zabiegów niniejszy podręcznik może być podstawą wykładu z psychologii poznawczej na pierwszych latach psychologii, ale przyda się też magistrantom, a nawet doktorantom specjalizującym się
14
Przedmowa
w innych działach psychologii, a szukającym podstaw psychologii poznania i poznawania. Struktura podręcznika odbiega nieco od standardu, powszechnie przyjętego przez autorów podręczników z psychologii poznawczej. Ów standard polega na omówieniu poszczególnych obszarów wiedzy o poznaniu, począwszy od procesów działających „na wejściu” i uważanych za proste (np. percepcja i uwa ga), a skończywszy na procesach działających „na wyjściu”, którym przypisuje się wysoki stopień złożoności (np. rozwiązywanie problemów). „Po drodze” omawia się pamięć, wyobrażenia i inne formy procesów „pośredniczących” między wejściem sensorycznym a wyjściem motorycznym. Istotą układu treści naszego podręcznika jest podział na struktury i procesy poznawcze. Procesy prowadzą do powstania struktur lub operują na nich. Dlatego uznaliśmy, że przed omówieniem sposobu działania procesów poz nawczych należy zapoznać studentów z rodzajami i sposobem działania struktur poznawczych, zwanych również reprezentacjami. Pierwsza część podręcznika, następująca po prologu, czyli rozdziale prezentującym psychologię poznawczą „z lotu ptaka”, poświęcona jest właśnie reprezentacjom poznawczym. W roz dziale drugim omawiamy istotę sporu o reprezentację poznawczą oraz przy taczamy badania nad reprezentacjami nietrwałymi (wyobrażeniami, sądami, modelami umysłowymi). W rozdziale trzecim jest mowa o reprezentacjach trwałych, czyli pojęciach i kategoriach, a w rozdziale czwartym - o strukturach wiedzy. W ten sposób, poczynając od prostych obrazów umysłowych, a kończąc na złożonych strukturach wiedzy, przedstawiamy liczne sposoby, dzięki którym umysł ludzki poznawczo reprezentuje rzeczywistość. Drugą część podręcznika poświęcono procesom poznawczym o stosunkowo niewielkim poziomie złożoności. Oczywiście podział na procesy proste i złożone jest trudny i ryzykowny, a jego efekty będą zapewne podlegać krytyce. Im więcej wiemy o takich procesach jak uwaga czy percepcja, tym trudniej nam za akceptować myśl, że są one proste. Za spostrzeganiem obiektów przez czło wieka kryje się skomplikowany mechanizm poznawczy, złożony z całej wiązki procesów, a ponadto wspomagany przez wiedzę, wnioskowanie, przetwarzanie języka i inne procesy poznawcze. Mimo to, jeśli porównamy percepcję z roz wiązywaniem problemów albo z przetwarzaniem języka, musimy uznać, że spostrzeganie jest procesem relatywnie mniej złożonym. Przemawiają za tym następujące argumenty. Po pierwsze, percepcja może być wspomagana przez inne procesy (np. pamięciowe lub związane z wnioskowaniem), ale nie musi. Niektóre formy percepcji, zwłaszcza dotyczące spostrzegania zjawisk fizycznych (przedmiotów, kolorów, kształtów, ruchu), zdają się mieć charakter bezpośredni, to znaczy są w niewielkim stopniu uwikłane w pośredniczącą rolę reprezentacji poznaw czych. Również wiele form funkcjonowania pamięci nie wymaga współdziałania ze strony innych procesów poznawczych, co nie oznacza, że pamięć takim oddziaływaniom nie podlega. Natomiast procesy złożone nie są w ogóle możliwe bez harm onijnego w spółdziałania procesów elem entarnych; dotyczy to w szczególności myślenia, rozwiązywania problemów, rozumowania, podejmo wania decyzji i przetwarzania języka. Po drugie, w procesach, które uznaliśmy za elementarne, bardzo duży udział mają automatyzmy w przetwarzaniu informacji. Koncentracja i prze
Przedmowa
15
rzucanie uwagi, wyodrębnianie przedmiotów z tła, przywołanie informacji z pa mięci i inne procesy z tej kategorii dokonują się automatycznie, poza świa domością i kontrolą ze strony podmiotu, który co najwyżej jest świadomy dopiero skutków owych procesów, a i to nie zawsze. Natomiast procesy złożone opierają się w dużym stopniu na czynnościach kontrolowanych. Nie znaczy to, że procesy złożone są wykonywane pod pełną kontrolą, chodzi tylko o to, że udział owej kontroli jest tutaj relatywnie duży. Kontroli poznawczej poświęciliśmy zresztą osobny rozdział, umieszczony w części drugiej, w której omawiamy elementarne procesy poznawcze. Decyzja ta wynika z kilku przesłanek. Przede wszystkim uznaliśmy, że kontrola poznawcza to niezwykle istotny aspekt ludzkiego poznania, w dodatku coraz intensywniej badany. Ponadto przyjęliśmy, że niektóre formy kontroli są dość proste w swoim przebiegu i charakterze, bowiem wywodzą się z mechanizmów uwagi - zresztą przez niektórych autorów są omawiane wraz z uwagą (np. przeciwdziałanie interferencji). Wreszcie, w naszym przekonaniu, kontrola poznawcza nie służy sama sobie, lecz innym procesom poznawczym, głównie tym, które uznaliśmy za złożone, aczkolwiek nie można ignorować roli pro cesów kontrolnych w procesach percepcji i pamięci. Co do pamięci, poświęciliśmy jej dwa rozdziały w części drugiej, dając w ten sposób wyraz przekonaniu o niezwykle istotnej roli pamięci w funkcjonowaniu umysłu i olbrzymiej roli badań nad pamięcią we współczesnej psychologii poznawczej. Nie wolno ignorować faktu, że dla wielu współczesnych autorów psychologia poznawcza to przede wszystkim psychologia różnych form i odmian pamięci, a wiele modeli pamięci (np. sieciowe) to w gruncie rzeczy ogólne mo dele umysłu. I chociaż nie chcieliśmy stawiać znaku równości między umysłem a pamięcią, musieliśmy dać wyraz współczesnemu stanowi badań w tym obsza rze. Dodatkowo trzeba było uwzględnić fakt, że w ostatnich latach, w wyniku gwałtownego rozwoju badań nad pamięcią, wyróżniono wiele form i odmian tego zjawiska, dawniej nieznanych, a w każdym razie niezbyt intensywnie badanych. Chodzi o takie konstrukty jak pamięć robocza, pamięć prospektywna oraz liczne przejawy pamięci niejawnej (implicit memory). Dlatego pamięci poświęcono dwa rozdziały. Jeden z nich (rozdz. 8) zawiera omówienie różnych form i rodzajów pamięci, a drugi (rozdz. 9) - omówienie czynności pamię ciowych, takich jak zapamiętywanie, przechowywanie i odpamiętanie materiału. Mimo to mamy wrażenie, że o pamięci można by napisać znacznie więcej. Współczesny stan badań i teorii pozwalałby np. na poświęcenie osobnego rozdziału samej tylko pamięci roboczej. Niestety, taka decyzja musiałaby mieć niepożądane skutki co do rozmiaru i wewnętrznej spójności podręcznika. Trzecia część książki jest poświęcona złożonym procesom poznawczym: myśleniu i rozumowaniu (rozdz. 10), rozwiązywaniu problemów (rozdz. 11), podejmowaniu decyzji i formułowaniu sądów (rozdz. 12) oraz przetwarzaniu języka (rozdz. 13). W ten sposób liczba rozdziałów jest mniejsza o dwa od liczby tygodni w jednym semestrze roku akademickiego (teoretycznie 15). Zależało nam na takim rozwiązaniu, ponieważ dzięki tem u m ożna co tydzień wykorzystać jeden rozdział podręcznika, mając w rezerwie dwa tygodnie na czynności wstępne i końcowe. Niestety, w wyniku takiej decyzji w tekście nie zmieściły się rozdziały, które, być może, powinny się tam znaleźć. Jeśli mie libyśmy coś jeszcze dodawać, trzeba by uwzględnić następujące tematy: rozwój
1 1>
Przedmowa
poznawczy, różnice indywidualne w zakresie poznania oraz filozoficzne i teoriopoznawcze implikacje badań w zakresie psychologii poznawczej. Wydaje się, że te wątki zasługują na osobne potraktowanie, np. w postaci podręczników, monografii lub prac zbiorowych. W niniejszym podręczniku kwestie te są oma wiane skrótowo i mimochodem, przy okazji dyskutowania problemów o cha rakterze ogólnym. Oprócz właściwego tekstu, w podręczniku zamieszczono dwa rodzaje blo ków poszerzających. Pierwsza grupa bloków ma charakter merytoryczny. Są to opisy konkretnych badań, niekiedy dość szczegółowo przedstawionych ze względu na wysoko przez nas oceniane walory poznawcze. W tego rodzaju blokach (ramkach) znajdują się np. empiryczne ilustracje szczególnie interesu jących zjawisk, opis badań nad mózgowymi korelatami procesów poznawczych lub badań o szczególnie zaawansowanej i finezyjnej metodologii. Można czytać tekst, ignorując te ramki, zwłaszcza gdyby podręcznik miał być wykorzystywany na zajęciach z pierwszymi rocznikami studentów. Druga grupa bloków po szerzających ma charakter metodologiczny. Nazwaliśmy te ramki „paradygma tami”, zgodnie z niekuhnowską, ale bardzo rozpowszechnioną konwencją używania słowa „paradygmat” na oznaczenie ustalonego wzorca procedury eksperymentalnej, wykorzystywanego w badaniach nad wyodrębnionym proce sem lub efektem. W literaturze psychologicznej co rusz można się natknąć na informacje, że pewne badania przeprowadzono np. w paradygmacie poprze dzania negatywnego albo w paradygmacie dychotycznej prezentacji bodźców. Postanowiliśmy dokładniej opisać najważniejsze paradygmaty eksperymentalne, co powinno ułatwić zrozumienie, w jaki sposób psychologia bada określone zjawiska i jak dochodzi do takich, a nie innych konkluzji. Lektura ramek paradygmatycznych powinna zatem zwiększyć krytycyzm studenta w zapozna waniu się z ofertą współczesnej psychologii poznawczej. Powinna również ułatwić życie tym, którzy chcieliby projektować i prowadzić własne badania, np. magistrantom. Podczas pisania podręcznika nieustannie natykaliśmy się na rafy termino logiczne. Polskie słownictwo psychologiczne jest w wielu obszarach nieusta lone, co więcej, obserwuje się żywiołowe i niekiedy mało refleksyjne tłuma czenia terminów obcojęzycznych. Niektóre już zdążyły się utrwalić, mimo że są ewidentnie nietrafne. Na przykład pojęcie central executive w teorii pamięci roboczej dotyczy hipotetycznego mechanizmu rozdzielającego zasoby uwagi i odpowiedzialnego za bieżące przetwarzanie informacji. Jest to więc struktura zarządzająca, zgodnie ze znaczeniem angielskiego rzeczownika executive (dyrektor, członek zarządu). Tymczasem polski odpowiednik „centralny system wykonawczy” sugeruje raczej podrzędną rolę tego mechanizmu jako systemu wykonującego polecenia, nie zaś wydającego je. Mimo wątpliwości, termin „centralny system wykonawczy” utrzymaliśmy ze względu na powszechnie przyjęty w polskiej psychologii uzus językowy. Ale już executive functions przetłumaczyliśmy jako „funkcje zarządcze”, bo taki, jak się wydaje, jest sens tego terminu. Alternatywą byłyby „funkcje wykonawcze”, co zupełnie nie oddaje istoty rzeczy, zwłaszcza że w tym wypadku nie ma wspomagania w postaci słówka „centralne”. Inna kwestia to sposób oddania angielskiego terminu priming. Proponu jemy „poprzedzanie” lub zamiennie „prymowanie”, ponieważ jest to określenie
Przedmowa
17
nedtralne i obejmujące wszystkie rodzaje omawianego zjawiska. Stosowane niekiedy w polskich tekstach słowo „torowanie” nie wydaje się trafne, bo nie uwzględnia faktu, że bodziec poprzedzający może utrudniać przetwarzanie bodźca właściwego, jak to ma miejsce np. w przypadku poprzedzania nega tywnego. Słówko „uprzedzanie” niesie natomiast niepożądaną konotację, jako by ktoś kogoś chciał przed czymś uprzedzić. Dlatego „poprzedzanie” i „prymowanie” wydają się godne rozważenia. Dodatkowo „prymowanie” ma tę zaletę, że jest spójne z określaniem bodźca poprzedzającego mianem prymy. Są to spolszczone wersje słów o proweniencji łacińskiej, co jest częstym rozwiąza niem w polskiej nomenklaturze naukowej. Największe problemy wystąpiły jednak z oddaniem angielskich terminów implicit learning oraz implicit memory. W tekstach angielskich zawarte są dwa ważne znaczenia: ukryty charakter procesu oraz to, że zdarzenie wcześniejsze (np. spostrzeżenie bodźca) pociąga za sobą - jak implikacja - późniejsze skutki behawioralne (np. specyficzny sposób kategoryzowania obiektów lub uzupeł niania niepełnych wyrazów). Według naszej wiedzy, język polski nie dysponuje słowem o takim ładunku znaczeniowym. W polskiej literaturze psychologicznej można znaleźć kilka rozwiązań tego problemu: uczenie się mimowolne (akcentuje brak intencji, ale pomija ukryty charakter procesu), pamięć typu implicite (niezbyt zgrabne), pamięć implikatywna (jeszcze mniej zgrabne), pamięć utajona lub ukryta. Wydaje się, że najlepsze - bo neutralne - jest określenie „pamięć niejawna” oraz jej przeciwieństwo, czyli „pamięć jawna” (explicit memory). To samo dotyczy uczenia się, które może być jawne lub niejawne, z tym że w nie których przypadkach warto używać również określenia „uczenie się mimowolne”, mianowicie wtedy, gdy rzeczywiście chce się zaakcentować brak intencji osoby uczącej się. Potrzeba posługiwania się terminem neutralnym wynika stąd, że różni autorzy podają różne definicje i kryteria tego zjawiska, nie mówiąc już o tym, że nie znamy mechanizmu działania pamięci niejawnej. Na przykład używanie terminu „pamięć utajona” lub „ukryta” może sugerować, że jest to pamięć, której zawartość ktoś intencjonalnie przed kimś ukrył. Może też kierować skojarzenia czytelnika w stronę freudowskich mechanizmów wyparcia i tłumienia. Tego rodzaju konotacje byłyby niepożądane, bo zbyt silnie sugerują hipotetyczny me chanizm działania pamięci niejawnej, a w dodatku nie odpowiadają powszechnie używanym paradygmatom badania tejże pamięci. Choć sami nie polecamy ter minu „pamięć utajona”, z dwojga złego wydaje nam się lepszy, tym bardziej że pojawił się już termin „poznanie utajone”. Terminologia dotycząca pamięci nastręcza zresztą wielu innych kłopotów. Polski termin „zapamiętywanie” nie ma odpowiednika angielskiego; w litera turze anglojęzycznej jest natomiast używany termin encoding. Nie zdecydowa liśmy się na zastąpienie zapamiętywania kodowaniem, bo byłoby to zbyt dalekim odejściem od rodzimej tradycji terminologicznej, a ponadto rozwiązaniem teoretycznie nietrafnym. Kodowanie to ważny element procesu zapamiętywania, ale nie jedyny, bo nie obejmuje np. operacji utrwalenia śladu pamięciowego. Utrzymaliśmy też termin „odpamiętywanie”, oznaczający odwrotność zapamię tywania, czyli każdy przypadek korzystania z zasobów pamięci - jawnej lub niejawnej. Mimo że termin „odpamiętywanie” nie jest powszechnie używany w polskiej literaturze psychologicznej, a niektóre słowniki traktują jego użycie jako błąd językowy, wydaje nam się logiczny (np. zakręcić i odkręcić) , a ponadto
io
rrzeamowa
obojętny ze względu na domniemany mechanizm teoretyczny tego etapu pro cesu pamięciowego. Ogólny termin „odpamiętywanie” można teraz rozbić na konkretne odmiany tego zjawiska, np. przypominanie lub rozpoznawanie (w od niesieniu do pamięci jawnej) oraz liczne formy korzystania z pamięci niejawnej. Zdajemy sobie sprawę, że nasze rozstrzygnięcia terminologiczne mogą budzić sprzeciw. Czy się przyjmą, trudno w tej chwili wyrokować. W każdym razie powinny wzbudzić dyskusję i stymulować próby ulepszenia terminologii naukowej w zakresie psychologii poznawczej. Język jest jednym z najważniej szych narzędzi poznania, więc przyswajanie terminów obcojęzycznych nie powinno być bezrefleksyjne i powierzchowne. Gdyby nasza publikacja skłoniła studentów i badaczy do większej staranności w tym zakresie, czulibyśmy się u saty sfakcj onowani. Przygotowanie niniejszego podręcznika nie byłoby możliwe bez życzliwości i współpracy wielu osób i instytucji. Przede wszystkim dziękujemy Wydawnic twu Naukowemu PWN za inicjatywę wydania tej książki, a Pani Redaktor Joannie Marek za anielską cierpliwość w obliczu ciągle zmieniających się terminów oddania maszynopisu. Dziękujemy obu naszym pracodawcom, Uniwersytetowi Jagiellońskiemu oraz Szkole Wyższej Psychologii Społecznej, za stworzenie warunków do pracy naukowej i dydaktycznej, a przede wszystkim za to, że mając okazję wykładać psychologię poznawczą przez dłuższy czas* dla wielu roczników studentów, mogliśmy poznać profil i potrzeby przyszłego czytelnika. Dziękujemy recenzentom wydawniczym, prof. Tomaszowi Maruszewskiemu i prof. Czesławowi Nosalowi, za inspirujące uwagi krytyczne, obudowane generalną akceptacją naszego projektu. Na koniec dziękujemy naszym Kolegom z Zakładu Psychologii Eksperymentalnej UJ i z Katedry Psychologii Poznawczej SWPS. Wszystko, co wiemy o psychologii poznawczej, narodziło się w związku z dyskusjami, zebraniami i wspólnymi badaniami, które wspólnie wykonaliśmy w ciągu ostatnich 15 lat. W pracach technicznych bardzo pomocni byli: Karolina Czernecka, Zofia Stawowy-Winkler, Łukasz Szych i Ka mila Smigasiewicz, którym serdecznie dziękujemy.
Kraków, wrzesień 2005.
Edward Nęcka Jarosław Orzechowski Błażej Szymura
R o zd zia ł *
Umysł i poznanie
Poznanie - um ysł - działanie
Ogólna architektura um ysłu
23
45
Umysł jako system przetw arzania infor macji 23
Blokowe modele um ysłu
Jedność poznania i działania
Umysł jako system modułowy
29
Psychologia poznawcza: dziedzina czy para dygmat 31 Narodziny i rozwój psychologii poznaw czej 31 Psychologia a inne dziedziny badań nad poznaniem 34 Metody badań nad poznaniem
37
46
Koncepcja poziomów przetw arzania Sieciowe m odele um ysłu Podsumowanie
56
53
51
Poznanie to zdolność człowieka i innych gatunków do odbioru informacji z otoczenia oraz przetwarzania ich w celu skutecznej kontroli własnego działania, a także lepszego przystosowania się do warunków środowiska. Poznaniem nazywamy też ogół procesów i struktur psychicznych, biorących udział w przetwarzaniu informacji. Psychologia poznawcza to subdyscyplina naukowej psychologii, zajmująca się badaniem procesów i struktur poznawczych, a także ogólnymi zasadami funkcjonowania umysłu. Każda nauka określa swoją tożsamość poprzez przedmiot badań i metodę ich prowadzenia. Psychologia poznawcza (inaczej: kognitywna) jest częścią psychologii i zgodnie z tą przynależnością określa przedmiot swoich zaintere sowań jako badanie mechanizmów sterujących zachowaniem. Jednak w od różnieniu od innych działów tej dyscypliny, psychologia poznawcza zawęża obszar swoich zainteresowań do mechanizmów poznawczych, a nie np. emocjonalnych, motywacyjnych, osobowościowych lub społecznych. Problemy naukowe oczywiście nie dzielą się na poznawcze i inne, w związku z tym psychologia poznawcza wchodzi w liczne i różnorodne „sojusze badawcze” z innymi dziedzinami badań psychologicznych, jak też z innymi naukami. Jednak jej podstawowym zadaniem jest badanie tego, jak ludzie poznają świat i w jaki sposób owo poznanie określa ich zachowanie w różnych sytuacjach życia codziennego lub podczas zmagania się z rozmaitymi problemami. Przedmiotem zainteresowania psychologii poznawczej jest złożony system, wyspecjalizowany w odbiorze i przetwarzaniu informacji. Zgodnie z coraz powszechniej stosowaną konwencją terminologiczną, będziemy ten system nazywać umysłem, chociaż pojęcie to powstało znacznie wcześniej, niż ja kiekolwiek próby analizowania poznania w kategoriach przetwarzania informa cji. Pamiętajmy jednak, aby tak rozumianego umysłu nie utożsamiać ze świadomością. Zdecydowana większość procesów badanych przez psychologów poznawczych to procesy nieświadome. Świadoma część umysłu to raczej wy jątek niż reguła, choć wyjątek na tyle interesujący, że stanowi przedmiot szczególnie intensywnych badań. Na gruncie innych nauk, szczególnie filozofii, termin „umysł” jest używany w węższym znaczeniu: jako podmiot doznań i myśli (Hamish, 2002). Zatem umysł w wąskim znaczeniu to świadoma część psychiki, w której rodzą się subiektywne doświadczenia (np. spostrzeżenia) i która jest zdolna do uruchomienia procesów myślenia; jest to jak gdyby „miejsce”, w którym przebiegają nasze myśli. Natomiast umysł w znaczeniu szerszym to po prostu system odbioru i przetwarzania informacji. Umysł, zdefiniowany jako system poznawczy, jest przedmiotem zaintere sowania wielu nauk humanistycznych, społecznych i biologicznych. Granice między tymi naukami nie zawsze są możliwe do precyzyjnego określenia, nie zawsze też owe rozgraniczenia są potrzebne. W każdym razie specyficzność podejścia reprezentowanego przez psychologię poznawczą wynika ze ścisłego związku z resztą psychologii. Związek ten ujawnia się poprzez badanie relacji poznania do innych aspektów funkcjonowania psychiki, takich jak emocje, motywacja, rozwój psychiczny lub zaburzenia zachowania, jednak przede wszystkim przejawia się w metodologii badań, opartej na obserwacji zacho
1.1. Poznanie - umysł - działanie
23
wania i wnioskowaniu na tej podstawie o ukrytych procesach psychicznych. Jest to podejście typowo psychologiczne. I choć psychologia jako nauka, a zwłaszcza psychologia poznawcza, coraz śmielej sięga po inne narzędzia badawcze, takie jak obrazowanie pracy mózgu lub modelowanie procesów poznawczych z użyciem komputera, nie rozstaje się ze swoim klasycznym instrumentarium badawczym, którego rdzeniem pozostaje obserwacja zachowania i eksperyment laboratoryjny. Niniejszy rozdział zawiera definicje podstawowych pojęć psychologii poznawczej, rozważania na temat jej głównych obszarów badawczych, a także podstawowe informacje na temat metodologii badań prowadzonych w tym obszarze tematycznym.
1.1. Poznanie - umysł - działanie 1.1.1. Umysł jako system przetwarzania informacji To, co w tradycyjnej psychologii ogólnej traktowane było jako odrębne jakościowo zjawiska lub procesy psychiczne (np. pamięć, myślenie, wyobraź nia), w psychologii poznawczej rozumiane jest raczej w kategoriach różnych faz procesu przetwarzania informacji. Pojęcie przetwarzania informacji (informa tion processing) wywodzi się z cybernetyki, czyli nauki o sterowaniu z wyko rzystaniem sprzężenia zwrotnego (Wiener, 1948), oraz z matematycznej teorii informacji (Shannon, Weaver, 1949; zob. Bechtel, Abrahamsen, Graham, 1998); ta ostatnia dała teoretyczne podstawy rozwoju informatyki. Na gruncie tych nauk informację definiuje się jednoznacznie jako redukcję niepewności. Na przykład przed rzuceniem monetą nie wiemy, czy padnie orzeł, czy reszka. Kiedy po dokonaniu rzutu stwierdzamy wynik (np. orzeł), redukujemy swą począt kową niepewność o połowę. Technicznie rzecz biorąc, uzyskujemy w ten sposób informację o wartości jednego bita, ponieważ bit to jednostka informacji redu kująca naszą wyjściową niepewność dokładnie o połowę. Według formalnego wzoru: I = log20 , czyli wartość uzyskanej informacji równa się logarytmowi o podstawie 2 z liczby dostępnych opcji. Jeśli tych opcji jest więcej niż dwie, wartość uzyskanej informacji przekracza jeden bit. Na przykład wiedząc, że było ośmiu kandydatów do pracy, a przyjęto Kazimierza, uzyskujemy informację o wartości I = log28 = 3 bity. W psychologii pojęcie informacji rozumiane jest w sposób mniej jedno znaczny. Zazwyczaj też nie umiemy dokładnie zmierzyć ilości informacji przetwarzanych przez umysł w określonej sytuacji lub podczas zmagania się z konkretnym problemem. Nie mamy jednak wątpliwości, że aktywność umysłu polega na przetwarzaniu informacji. Pomiędzy komunikatem na wejściu (np. znak „stop”) a reakcją na wyjściu (np. zatrzymanie samochodu) zachodzi bardzo złożony proces przetwarzania danych. Sześciokątny znak „stop” tyl ko dlatego jest dla kierowcy bodźcem wzrokowym, że odbija fale optyczne
£•*
Hozaziat i. umysł i poznanie
0 określonej charakterystyce (długość i amplituda). Te fale, przedostając się do siatkówki oka, wyzwalają w niej reakcje fotochemiczne. Już w tym momencie dochodzi do przetwarzania informacji, ponieważ dane w postaci fal optycznych są kodowane na reakcje fotochemiczne. Następnie, zmiany na siatkówce są kodowane na impulsy nerwowe, które - jak wiadomo - mają charakter elektryczny, ponieważ polegają na postępującej depolaryzacji błony aksonu komórki nerwowej. Impulsy te przewodzą informację do pierwszorzędowej kory wzrokowej, a następnie do innych fragmentów kory (tzw. kory kojarzeniowej). W czasie tej wędrówki impuls nerwowy jest przewodzony przez liczne neurony, a za każdą zmianą neuronu informacja musi być przekodowana, tak aby nadawała się do przekazania za pośrednictwem innego nośnika. Wynika to z faktu, że choć impulsy nerwowe mają charakter elektryczny, procesy na synapsie wymagają reakcji chemicznych, w których uczestniczą tzw. neuroprzekaźniki (np. serotonina, dopamina). W końcu informacja trafia do kory ruchowej, gdzie jest programowana reakcja kierowcy, przede wszystkim naciśnięcie hamulca, ewentualnie wysprzęglenie samochodu itp. Za te reakcje odpowiadają mięśnie szkieletowe, które muszą odebrać i odpowiednio zinter pretować rozkaz wysłany przez korę. Mimo pozornej prostoty tego przykładu, mamy tu do czynienia z procesem wielokrotnego przekodowywania informacji z jednego formatu na zupełnie inny. Trudno byłoby zaprzeczyć, że między bodźcem a reakcją dokonuje się przetwarzanie informacji, choć nie umiemy powiedzieć, ile dokładnie bitów zostało przetworzonych. Ktoś mógłby zauważyć, że w podanym przykładzie jest mowa o przetwa rzaniu informacji przez układ nerwowy, przede wszystkim mózg, podczas gdy psychologia poznawcza ma ambicję zajmowania się umysłem,, pozostawiając badanie mózgu neurobiologom. Nie wchodząc w tym miejscu w szczegółowe dyskusje na temat relacji między umysłem a układem nerwowym, przyjmijmy, że mózg jako narząd jest materialnym podłożem działania umysłu jako systemu poznawczego. Nie ma w tym kartezjańskiego dualizmu, wedle którego umysł, czyli dusza, miałby być niematerialnym bytem istniejącym niezależnie od ma terialnego mózgu. Nasze stanowisko jest monistyczne, ponieważ zakłada, że funkcje umysłowe zachodzą na materialnym podłożu tkanki nerwowej, to znaczy nie mogą istnieć inaczej niż tylko w ścisłej zależności od procesów przebiegających w tej tkance1. Umysł i mózg to terminy, które w gruncie rzeczy odnoszą się do tego samego zjawiska, jakim jest zdolność człowieka i innych gatunków do poznawania świata. Różnice dotyczą przyjętego poziomu analizy 1 sposobu wyjaśniania zjawisk. Badania nad umysłem wymagają spojrzenia ze stosunkowo wysokiego poziomu, czyli od strony funkcji poznawczych, natomiast badania nad mózgiem polegają na prowadzeniu obserwacji działania poszczególnych neuronów lub ich grup. Psycholog bada funkcje poznawcze,.np. spostrzeganie lub zapamiętywanie, niekoniecznie wnikając w to, jakie struktury mózgowe odpowiadają za wykonanie owych funkcji, choć ich lokalizacja mózgowa może go żywo interesować. Natomiast neurobiolog bada budowę 1 Nie jest to stanowisko światopoglądowe, lecz metodologiczne. Wydaje się ono niezbędne, przynajmniej na gruncie nauk empirycznych. Uczony może być prywatnie przekonany o istnieniu niematerialnej duszy, ale jako badacz musi roboczo założyć, że istnieje tylko to, co potrafi zmierzyć lub zaobserwować, lub o czym może zasadnie wnioskować na podstawie obserwacji lub pomiarów.
1.1. Poznanie —umysł - działanie
25
i aktywność określonych obszarów mózgowia lub naw et pojedynczych neuronów, nie zawsze wnikając w pełnione przez nie funkcje. Na przykład badanie propagacji impulsu nerwowego wzdłuż aksonu komórki nerwowej nie wymaga znajomości funkcji pełnionych przez tę komórkę, podobnie jak badanie procesów przewodzenia synaptycznego nie zawsze wymaga wiedzy, w jakich zadaniach poznawczych uczestniczy dana synapsa. Można powiedzieć, że spojrzenie psychologa jest „odgórne”, to znaczy od strony złożonych funkcji poznawczych, podczas gdy spojrzenie neurobiologa jest „oddolne”, czyli od strony elementarnych procesów metabolizmu i przewodzenia komórkowego. Oczywiście oba spojrzenia logicznie się uzupełniają. Być może w przyszłości nastąpi ich synteza, o czym może świadczyć intensywny rozwój dyscypliny zwanej neuronauką poznawczą (cognitive neuroscience). Wszystkie teoretyczne pojęcia psychologii poznawczej dotyczą tego, w jaki sposób umysł przetwarza informacje. Niektóre z nich dotyczą odbioru informacji z otoczenia, inne - ich przechowywania i dokonujących się na nich transformacji, a jeszcze inne - przekazywania danych z powrotem do otoczenia. Dlatego niezbędność terminu „przetwarzanie informacji” jest dla psychologów czymś oczywistym, choć odrzucając techniczną definicję tego pojęcia, musimy znaleźć inne, bardziej nam odpowiadające określenie. Według Ulrica Neissera (1967), na procesy przetwarzania informacji składają się wszystkie operacje, dzięki którym odbierane przez jednostkę bodźce są transformowane, prze kształcane, redukowane, wzmacniane, zachowywane, przywoływane lub wy korzystywane w jakikolwiek inny sposób. Zadaniem psychologii poznawczej jest opis tych procesów i pokazanie, w jaki sposób kształtują one zachowanie człowieka. Podstawowym założeniem dotyczącym procesów przetwarzania informacji jest założenie o ekonomii ich przebiegu. W myśl tego założenia, przetwarzanie wszystkich dostępnych informacji nie miałoby żadnego sensu - większość z nich i tak jest „bezużyteczna” z punktu widzenia wymagań sytuacji, w jakiej znajduje się organizm. Co więcej, człowiek nie jest w stanie przetworzyć wszystkich docierających do niego informacji, nawet gdyby były w pełni użyteczne, ponie waż jego umysł cechuje ograniczona pojemność (Duncan, Humphreys, 1989). Jak piszą Susan Fiske i Shelley Taylor (1991), człowiek to skąpiec poznawczy (icognitive miser), czyli istota, która z reguły angażuje tylko część dostępnych jej zasobów poznawczych, jak gdyby zachowując resztę na wszelki wypadek i chroniąc się w ten sposób przed niebezpieczeństwem przeciążenia systemu. Koncepcja „skąpca poznawczego” wyjaśnia wiele faktów wskazujących na nie zbyt efektywne lub odległe od optymalnego wykonanie rozmaitych zadań poznawczych. Sposobem na uniknięcie przeciążenia informacyjnego jest se lekcja danych, dokonująca się na różnych etapach przetwarzania. Selekcję tę umożliwia mechanizm zwany uwagą. Ponadto umysł dysponuje zdolnością do hamowania zbędnych reakcji i procesów mentalnych, co jest możliwe dzięki procesom kontroli poznawczej. Skutkiem „skąpienia” zasobów poznawczych jest też wszechobecna w ludzkim poznaniu skłonność do stosowania uprosz czonych heurystyk, schematów, stereotypów i innych narzędzi poznawczego upraszczania rzeczywistości. Ekonomia działania poznawczego przejawia się także tym, iż człowiek wielokrotnie wykonujący te same działania tworzy coraz bardziej stabilne
Ci u
ttozaziaf i. umysi i poznanie
i jednocześnie coraz elastyczniejsze struktury poznawcze. W przeciwieństwie do procesów poznawczych, są to względnie trwałe elementy umysłu, możliwe do wielokrotnego wykorzystania w różnych warunkach i sytuacjach. Do struktur poznawczych zaliczamy elementy wiedzy, a ponadto sądy, przekonania i sche maty poznawcze. Struktury poznawcze powstają dzięki procesom poznawczym i w wyniku ich działania, lecz od momentu powstania wpływają zwrotnie na przebieg tych procesów poznawczych, a niektóre procesy polegają po prostu na przekształcaniu struktur. Na przykład wiedza tworzy się w wyniku procesów spostrzegania i zapamiętywania. Jednakże raz wykształcone struktury wiedzy określają kierunek i przebieg przyszłych procesów spostrzegania oraz przyszłych procesów zapamiętywania. Z tego punktu widzenia umysł to obszar, w którym dochodzi do ciągłej i wzajemnej interakcji między procesami a strukturami poznawczymi. Jako względnie trwałe elementy systemu poznawczego, struktury muszą być przechowywane w odpowiednich magazynach, w których nie ulega łyby degradacji i skąd łatwo byłoby je wydobyć. Jest to możliwe dzięki zdolności umysłu do przechowywania informacji, zwanej pamięcią. Rozróżnienie dynamicznych procesów i względnie stabilnych struktur po znawczych może budzić wątpliwości, jednak z filozoficznego punktu widzenia ich sposób istnienia wydaje się zasadniczo różny (Stróżewski, 2004). Natomiast dla psychologów rozróżnienie to okazuje się szczególnie przydatne wtedy, gdy rozpatrują rodzaje błędów popełnianych przez ludzi podczas zmagania się z roz maitymi zadaniami. Okazuje się, że niektóre pomyłki wynikają z niedosko nałości struktur poznawczych, a inne - z niewydolności procesów przetwarzania informacji. Wyobraźmy sobie, że wykonując ciąg obliczeń matematycznych, musimy podnieść liczbę 5 do trzeciej potęgi. Prawidłowa odpowiedź brzmi: 53 = 125. Ktoś mógłby podać inną wartość, np. 100, bo pomylił się „w procesie”, mianowicie najpierw pomnożył 5 przez 5 i otrzymał 25, a następnie pomnożył tak otrzymany wynik jeszcze raz przez 5, ale błędnie uznał, że 5 razy 25 równa się 100, a nie 125. Ktoś inny mógłby podać wynik 15, gdyby uznał, że trzecia potęga jakiejś liczby to z definicji wynik mnożenia tej liczby przez trzy. W drugim przypadku przyczyną błędu jest brak wiedzy na temat, co to znaczy trzecia potęga dowolnej liczby, a nie błąd w obliczeniach. Brak wiedzy, a także wiedza niepełna lub fałszywa, to niedostatek struktur poznawczych, któremu nie jest w stanie zaradzić choćby najsprawniejszy, najszybszy i bezbłędny proces poznawczy. Struktury poznawcze tworzą względnie spójny, dobrze zorganizowany system, w którym występują procesy kontroli. Kontrola poznawcza to zdolność systemu do samoorganizacji i samoregulacji. Dzięki procesom kontroli możliwe jest np. powstrzymanie się od reakcji, ale również jej wyzwolenie we właściwym momencie. W ten sposób zachowanie człowieka uwalnia się od bezpośredniej presji ze strony stymulacji zewnętrznej. Procesy kontroli poznawczej powodują zatem, że nasze działania nie są prostą reakcją na bodźce z otoczenia ani na impulsy dochodzące z organizmu. W szczególności procesy kontroli odpowia dają za zdolność człowieka do samodzielnego inicjowania własnych działań wyłącznie w wyniku aktywności wewnętrznych stanów psychicznych, a nie w odpowiedzi na bodźce. Przetwarzanie informacji dokonuje się na wielu poziomach. Pojęcie po ziomów przetwarzania oznacza, iż ta sama informacja może być poddana obrób
1.1. Poznanie - umysł - działanie
27
ce z różną intensywnością i starannością, czyli jak gdyby na wielu różnych piętrach przetwarzania danych. Bodźce zewnętrzne mogą być np. interpreto wane na poziomie sensorycznym, obejmującym fizyczne właściwości stymulacji, lub na poziomie semantycznym, odpowiadającym znaczeniu danej stymulacji lub jej przynależności kategorialnej. Z kolei przedmioty fizyczne mogą być ujmowane przez system poznawczy w postaci pojęć, ale też w postaci obrazów umysłowych. To, na jakim poziomie informacja będzie przetworzona, zależy od wymagań sytuacji lub zadania poznawczego. Może też wynikać z wcześniej utrwalonego nawyku. W każdym razie wielopoziomowość przetwarzania informacji jest zjawiskiem powszechnym, czyli odzwierciedla jedną z elemen tarnych cech umysłu ludzkiego. Przetwarzanie jest na każdym poziomie uzależnione od kontekstu, zarówno zewnętrznego (otoczenia), jak i wewnętrznego (wzbudzonych struktur poznaw czych). Obraz zagrażającego przedmiotu bez jego fizycznej obecności (np. zdję cie żmii) nie pobudza nas z reguły do ucieczki. Kontekst zewnętrzny sugeruje bowiem, że to tylko obraz niebezpiecznego zwierzęcia, a nie prawdziwe nie bezpieczeństwo. Bywa też, że realnie istniejący obiekt, skądinąd zagrażający, nie wzbudza reakcji ucieczki ze względu na specyficzny kontekst wewnętrzny. Na przykład dla hodowcy jadowitych węży widok zwierzęcia nie jest bodźcem do ucieczki, ponieważ dysponuje on wiedzą o sposobach uniknięcia niebez pieczeństwa. Badanie zależności przebiegu procesów poznawczych od kontek stu jest jednym z głównych zadań psychologii poznawczej. Większość psychologów poznawczych uważa, że umysł nie jest prostym odzwierciedleniem otaczającej go rzeczywistości, lecz aktywnie i samodzielnie utworzoną konstrukcją. Dzięki konstruktywnej aktywności umysłu powstaje wewnętrzna, poznawcza reprezentacja świata. Pojęcie reprezentacji jest jednym z kluczowych terminów psychologii kognitywnej. Używa się go za równo w liczbie pojedynczej, na oznaczenie ogólnego obrazu świata w umyśle, jak też w liczbie mnogiej, w odniesieniu do poszczególnych składników tego obrazu. W tym drugim znaczeniu można mówić o reprezentacjach werbalnych lub obrazowych, prostych lub złożonych, odnoszących się do rzeczy lub relacji itd. Pojęcie reprezentacji poznawczej jest wobec tego synonimiczne w stosunku do omówionego już pojęcia struktury poznawczej, ponieważ umysł - rozpa trywany z perspektywy struktur, a nie procesów - po prostu składa się z licznych i wzajemnie powiązanych reprezentacji poznawczych (inaczej: mentalnych, umysłowych). Natomiast umysł rozpatrywany z perspektywy procesów, a nie struktur, polega na manipulowaniu reprezentacjami umysłowymi świata w taki sposób, aby informacje docierające czy to ze świata zewnętrznego, czy też z pamięci można było zinterpretować w świetle dotychczasowej wiedzy (czyli już istniejących struktur), a następnie wykorzystać je do tworzenia nowych struktur poznawczych (Harnish, 2002; Maruszewski, 1996). Poznanie można zatem opisać w postaci cyklu polegającego na aktyw nym tworzeniu reprezentacji poznawczych, interpretowaniu napływającej infor macji poprzez owe reprezentacje, zmianie treści reprezentacji pod wpływem napływających danych i z powrotem na interpretowaniu nowych danych poprzez wcześniej zmienione reprezentacje. W ten sposób dochodzi do ciągłe go rozwoju możliwości poznawczych człowieka i poszerzania jego wiedzy o świecie.
¡¿8
Rozdział 1. Umysł i poznanie
Jak można zdefiniować reprezentację poznawczą? Każda reprezentacja jest czyimś zastępnikiem. Na przykład piłkarska reprezentacja Polski jest symbo licznym zastępnikiem wszystkich Polaków, w których imieniu walczy z innymi reprezentacjami. Poziom piłkarskiej reprezentacji kraju tylko w przybliżeniu oddaje lokalny poziom piłki nożnej, a już zupełnie nie oddaje przeciętnej sprawności fizycznej ludności danego kraju. Wynika to z faktu, że reprezentacje sportowe są wynikiem starannej selekcji, a nie doboru losowego. Również poznawcza reprezentacja świata w umyśle tylko w przybliżeniu oddaje prawdzi we cechy rzeczywistości istniejącej poza umysłem. Wynika to nie tylko stąd, że reprezentacja ta jest wynikiem aktywnego konstruowania obrazu świata przez podmiot, a nie biernego odbicia rzeczywistości, lecz również stąd, że każdy z nas tworzy własny obraz świata, odpowiadający indywidualnemu doświadczeniu. Można powiedzieć, że każdy umysł dysponuje swoistą, indywidualną wersją rzeczywistości fizycznej, społecznej i symbolicznej. Nie ma dwóch osób o tym samym doświadczeniu indywidualnym, a nawet gdyby były, każda z nich prawdopodobnie wykorzystałaby to samo kwantum doświadczeń jednostko wych w sposób całkowicie odmienny. Dlatego każdy ma indywidualną, nie powtarzalną reprezentację świata, bo każdy samodzielnie ją utworzył na pod stawie własnych doświadczeń. Taki pogląd na naturę umysłu nazywamy kon struktywizmem. Z powyższego stwierdzenia nie należy wyciągać wniosku, że poznawcze reprezentacje świata są zasadniczo błędne. Gdyby tak było, nie moglibyśmy skutecznie działać w świecie, a praktyczna użyteczność naszych reprezentacji umysłowych byłaby porównywalna do przydatności zupełnie nieadekwatnej mapy drogowej. Gdyby porównać nasze reprezentacje umysłowe do mapy, była by to mapa niedokładna, miejscami mocno zniekształcająca obraz terenu, innym razem zawierająca elementy nieistniejące w rzeczywistości - ale jednak mapa zasadniczo adekwatna. Zakładając tak, przyjmujemy, że umysł jest swoistym „narządem” przystosowania się do rzeczywistości, więc gdyby miał tę rzeczy wistość fałszować, byłby zbędny, a zatem - z ewolucyjnego punktu widzenia nie powinien był się w ogóle pojawić. Nie ma natomiast żadnych wątpliwości, że treść reprezentacji poznawczych jest wybiórcza, podporządkowana celom pragmatycznym, nieldedy zniekształcona, a zawsze - mocno zindywidua lizowana. Jeśli reprezentacja poznawcza jest zastępnikiem, można ją zdefiniować jako uproszczony model tego, do czego się odnosi (Palmer, 1978). W związku z tym poznawcza reprezentacja krzesła jest uproszczonym, zastępczym modelem prawdziwego krzesła jako pewnej kategorii obiektów lub konkretnego egzem plarza tej kategorii. Taka reprezentacja może zawierać proste wyobrażenie obiektu albo treść pojęcia używanego na określenie tego obiektu. Reprezentacje innych obiektów, zwłaszcza dotyczących świata społecznego lub innych ludzi albo skomplikowanych problemów naukowych, mogą zawierać znacznie więcej informacji, zawsze jednak są uproszczonym modelem tego, co reprezentują. Dzięki tym upraszczającym zastępnikom umysł może radzić sobie w warunkach, które przez swą złożoność lub nowość przekraczałyby jego możliwości. Wszechobecne w psychologii poznawczej pojęcie reprezentacji wywołuje niekiedy wśród jej przedstawicieli spory o reprezentacjonizm (Harnish, 2002).
1.1. Poznanie - umysł - działanie
29
Jest to stanowisko filozoficzne, zgodnie z którym umysł poznaje świat nie bez pośrednio, lecz za pośrednictwem własnych kategorii poznawczych (pojęć, wyobrażeń, sądów, przesądów itd.). W skrajnym przypadku reprezentacjonizm może prowadzić do solipsyzmu, czyli poglądu o istnieniu wyłącznie podmiotu, który poznaje już nie świat, lecz własne miazmaty. Podkreślmy więc, że psy cholog poznawczy używa pojęcia reprezentacji nie w sporze o istnienie świata ani nawet nie w kontekście rozważań nad naturą poznania, lecz w zamiarze adekwatnego opisu i wyjaśnienia zachowania ludzi poznających świat i rozwią zujących rozmaite problemy natury poznawczej. Bez tej kategorii pojęciowej nasze opisy i wyjaśnienia byłyby znacznie uboższe, a niewykluczone, że wręcz błędne.
1.1.2. Jedność poznania i działania Zarzuca się niekiedy psychologii poznawczej, że zajmuje się badaniem „czys tego” poznania, oderwanego od realnego kontekstu sytuacyjnego i niezależnego od jawnego zachowania. Zgodnie z tym szkodliwym stereotypem, psychologia poznawcza buduje modele idealnych procesów przetwarzania informacji, które rozgrywają się w nieobserwowalnej „czarnej skrzynce”, pośredniczącej między sensorycznym „wejściem” a motorycznym „wyjściem” i których związek z jawnym zachowaniem jest trudny do uchwycenia. Gdyby tak było, psychologia poznawcza zasługiwałaby rzeczywiście na bardzo surową krytykę, ponieważ dla każdego uważnego obserwatora zacho wania ludzi i zwierząt związek poznania z działaniem ukazuje się jako bardzo ścisły i wielowarstwowy. U człowieka, podobnie jak u wielu gatunków zwierząt, obserwujemy np. odruch orientacyjny. Jest to reakcja na wydarzenie nagłe i nieoczekiwane (głośny dźwięk, nowa sytuacja). Obserwuje się wówczas znieruchomienie i ukierunkowanie receptorów na odbiór bodźców; za pomocą specjalistycznej aparatury możemy ponadto zaobserwować zmiany w aktywności serca i innych narządów ciała. U wielu gatunków zwierząt, podobnie jak u człowieka, występuje też specyficzna forma działania zwana zachowaniem eksploracyjnym. Polega ono na aktywnym poszukiwaniu informacji w otoczeniu, niekoniecznie w odpowiedzi na konkretne zapotrzebowanie. Czynności eksplo racyjne często interpretujemy jako przejaw tzw. bezinteresownej ciekawości, kiedy to organizm dąży do poznawczego opanowania jakiegoś przedmiotu lub sytuacji jak gdyby na wszelki wypadek albo ze względu na satysfakcjonujące właściwości samego zachowania badawczego. Bardzo dużo faktów świadczących o ścisłym związku poznania z działa niem zgromadziła psychologia rozwojowa. Rozwój poznawczy człowieka do konuje się w ten sposób, że większość czynności poznawczych najpierw ujawnia się w zachowaniu, aby dopiero potem stopniowo się uwewnętrznić. W wyniku tego procesu, zwanego interioryzacją, wiele czynności umysłowych dorosłego człowieka to nic innego, jak symboliczna wersja jawnych czynności poznaw czych małego dziecka, oczywiście wersja odpowiednio zmieniona i rozwinięta. Można powiedzieć, że w trakcie rozwoju poznawczego umysł ewoluuje, prze kształcając się z postaci jawnej w postać ukrytą. Prawdopodobnie nie każda
óU
Rozdział 1. Umysł i poznanie
czynność mentalna jest ukrytym odpowiednikiem i pochodną czynności jaw nych. Wydaje się, że wiele wyspecjalizowanych modułów poznawczych, takich jak spostrzeganie twarzy ludzkiej lub automatyczne przywołanie informacji z pamięci, jest nam danych od razu w postaci mentalnej, ponieważ ich pocho dzenie wiąże się z dojrzewaniem określonych struktur nerwowych. Ale nawet te wyspecjalizowane moduły rozwijają się i dojrzewają dopiero pod wpływem działania człowieka w określonym środowisku. W niniejszym podręczniku przyjęto zasadę jedności działania i poznania. Zgodnie z tą zasadą, każdy akt poznania albo sam jest aktem działania, albo też jest podporządkowany działaniu. Na przykład zachowanie eksploracyjne samo w sobie jest aktem działania, natomiast przywołanie informacji z pamięci mimo że samo w sobie nie jest jawnym zachowaniem - w ostatecznym rozra chunku służy jakiemuś działaniu, choćby temu, by sensownie odpowiedzieć na pytanie. Z kolei każde działanie albo jest poznaniem, albo wymaga poznania, albo też do niego prowadzi. Przez działanie rozumiemy celowe zachowanie człowieka lub przedstawicieli innych gatunków, a także niektórych systemów sztucznej inteligencji. Rozróżnienie zachowania reaktywnego, stanowiącego odpowiedź na bodziec, oraz zachowania celowego, polegającego na dążeniu do wyróżnionych stanów środowiska lub własnego organizmu, pochodzi z teorii czynności Tadeusza Tomaszewskiego (1975). Teoretyczne podstawy takiego rozróżnienia znajdziemy też w koncepcji planów zachowania, rozwiniętej przez Millera, Galantera i Pribrama (1960). Zgodnie z koncepcją Tomaszew skiego, czynnością nazywamy każdy poszczególny przypadek działania, czyli zachowania celowego. Zgodnie zaś z przyjętą zasadą jedności poznania i działania, każdy akt poznania jest czynnością. Niektóre czynności poznawcze stanowią część jawnego, obserwowalnego zachowania organizmu (lub systemu sztucznego), podczas gdy inne czynności są nieobserwowalne - zinternalizowane lub z natury niedostępne obserwacji. Ale nawet wtedy, gdy czynność poznawcza nie podlega obserwacji, stanowi część większej sekwencji działań, rozumianych jako dążenie systemu do wyróżnionych stanów. Takim wyróżnio nym stanem może być zdobycie informacji, rozwiązanie problemu, podjęcie decyzji itd. Psychologia poznawcza uwzględnia zasadę jedności poznania i działania na wiele sposobów. Po pierwsze, ściśle wiąże procesy i czynności poznaw cze z celowym zachowaniem się organizmów. W tym ujęciu każdy proces poznawczy to ogniwo w długim łańcuchu czynności, z których jedne są całkowicie obserwowalne, a inne - całkowicie lub częściowo zinterioryzowane. Po drugie, psychologia poznawcza intensywnie rozwija teoretyczne modele procesów zarówno na „wejściu do czarnej skrzynki”, jak też „na wyjściu” z niej. Te pierwsze to procesy percepcji i uwagi, te drugie to procesy programowania i kontroli czynności motorycznych, ze szczególnym uwzględ nieniem programowania i kontroli mowy. Po trzecie, psychologia poznaw cza uwzględnia aktywność własną podmiotu poznającego jako czynnik wpły wający na przebieg i ostateczny wynik czynności poznawczych. Zgodnie z tym ujęciem, umysł przetw arza przede wszystkim te informacje, które sam „pobrał” z otoczenia w wyniku czynności eksploracyjnych, oraz te, które są mu potrzebne do zaprogramowania czynności motorycznych „swojego” organizmu.
1.2. Psychologia poznawcza: dziedzina czy paradygmat
31
1.2. Psychologia poznawcza: dziedzina czy paradygmat 1.2.1. Narodziny i rozwój psychologii poznawczej Na początku lat 80. XX w. przeprowadzono badania ankietowe wśród psychologów amerykańskich. Zapytano ich, z którym ze współczesnych kierunków psychologii się identyfikują. Ponad trzy czwarte ankietowanych zadeklarowało, że reprezentuje psychologię poznawczą (Eysenck, 1983). Wyniki te wydają się bardzo symptomatyczne, m.in. dlatego, że uzyskano je w kraju, w którym narodziły się lub osiągnęły apogeum swego rozwoju trzy najważniej sze nurty współczesnej psychologii: neopsychoanaliza społeczna, neobehawioryzm i psychologia humanistyczna. Co skłoniło tak znaczną liczbę uczonych, aby określić swoją tożsamość przez akces do psychologii poznawczej? Wydaje się, że odpowiedź zawiera się w rozróżnieniu kierunku i dziedziny badań psychologicznych. Kierunek (prąd, nurt) psychologiczny to szczególny wzorzec uprawiania nauki, swoisty ze względu na podstawowe pojęcia, założenia metateoretyczne, metodologię i rodzaj stawianych pytań badawczych. Jest to pojęcie bliskie wprowadzonemu przez Thomasa Kuhna (1970) terminowi paradygmat. Natomiast dziedzina lub obszar badań to po prostu określone pole problemowe, czyli zestaw pytań badawczych o naturę wybranego zbioru zjawisk. Rzecz jasna, ani stawiane pytania, ani nawet zbiór badanych zjawisk nie wiszą w teoretycznej próżni. Pewne pytania przestają być ważne po zmianie paradygmatu, inne z kolei zyskują sens i znaczenie dopiero w szerszym kontekście teoretyczno-metodologicznym. Mimo to w każdym z ważniejszych kierunków myśli psychologicznej stawia się dość podobne pytania i rozwiązuje porównywalne problemy. Jeśli więc prawie wszyscy badacze, zajmujący się ta kimi zjawiskami, jak spostrzeganie, uczenie się, uwaga, pamięć, język, myślenie, rozwiązywanie problemów i podejmowanie decyzji, nazywają siebie psycho logami poznawczymi, to znaczy, że identyfikują się poprzez dziedzinę, a nie paradygmat. Inaczej mówiąc, akces do psychologii poznawczej jest w dużej mierze niezależny od teoretycznego i metodologicznego podejścia do rozważa nych zagadnień. Jest tym samym niezależny od reprezentowanego kierunku czy też nurtu psychologicznego. Współczesną psychologię poznawczą należy uznać raczej za obszar badań psychologicznych, choć wcześniej uważano (np. Tomaszewski, 1980; Kozielecki, 1978), że to kierunek lub paradygmat. Istotnie, wczesne teorie poznawcze, np. koncepcja Ulrica Neissera (1967) lub George’a Kelly’ego (1955), nosiły wszelkie znamiona nowego paradygmatu badawczego, będącego w opozycji przede wszystkim wobec neobehawioryzmu, choć do pewnego stopnia również wobec psychologii dynamicznej. Były to ogólne koncepcje psychologiczne, mające ambicje opisania i wyjaśnienia całości problematyki psychologicznej w języku procesów przetwarzania informacji (Kozielecki, 1978). Obecnie obserwujemy wyraźne odejście od prób tworzenia ogólnych koncepcji psycho logicznych na rzecz badania wybranych problemów z zakresu poznania i pozna wania. Tak więc współczesna psychologia poznawcza jest raczej dziedziną badań niż spójnym paradygmatem teoretyczno-metodologicznym. Stąd, jak uważa Michael Eysenck (1983), czasem łatwiej jest określić, czym psychologia poznawcza się nie zajmuje, niż wskazać dokładnie obszar jej zainteresowań.
Kozaziai i. umysł i poznanie
Istnieje jednak pojęcie wspólne wszystkim koncepcjom i teoriom z obszaru poznawczego. Jest to pojęcie procesów poznawczych lub inaczej - procesów przetwarzania informacji. Wagę dokładnej analizy procesów poznawczych podkreślają wszyscy psychologowie poznawczy, niezależnie od własnej orien tacji badawczej i od stosowanej na własny użytek definicji psychologii poznawczej. Historia nauki, podobnie jak historia powszechna, to raczej ciąg powolnych procesów niż pojedyncze wydarzenia. Mimo to historię często opisuje się poprzez wydarzenia, szczególnie te, które mają znaczenie przełomowe lub symboliczne. Zdaniem Margaret Matlin (1994), większość psychologów za umowną datę powstania psychologii poznawczej uznaje rok 1956. Wówczas to w Massachusetts Institute of Technology (MIT) odbyło się pierwsze sympozjum kognitywne, o którym George Miller napisał później, że napełniło go „silnym przekonaniem, bardziej intuicyjnym niż racjonalnym, że psychologia ekspery mentalna, lingwistyka teoretyczna i komputerowa symulacja procesów pozna wczych to kawałki większej całości” (za: Matlin, 1994, s. 6). Tą całością okazała się wkrótce kognitywistyka, której psychologia poznawcza jest do dziś istotną częścią. Rok 1956 był zresztą ważny również dlatego, że autor tych słów opublikował wówczas klasyczny, ważny do dzisiaj artykuł o ograniczeniach pamięci krótkotrwałej (Miller, 1956). Trzy lata później ukazała się słynna praca Noama Chomsky’ego (1959). Rzadko się zdarza, aby recenzja cudzej książki stała się sama w sobie klasycznym dziełem naukowym. Recenzję, którą napisał Chomsky na temat książki Skinnera Verbal Behavior, należy więc uznać za rzecz najzupełniej wyjątkową. W pracy tej autor wykazał nieadekwatność teorii bodźca i reakcji do wyjaśniania zachowań werbalnych człowieka. Przy okazji Chomsky zaatakował behawioryzm jako model nauki o człowieku, wywodzący się z tradycji logicz nego pozytywizmu. Stwierdził, że terminy używane przez Skinnera, jeśli rozu mieć je literalnie, zupełnie nie nadają się do opisu tego, jak ludzie mówią, choć - być może - nadają się do opisu zachowania gołębi w ściśle kontrolowanych warunkach eksperymentalnych. Jeśli natomiast terminy te rozumieć metafo rycznie, ich użycie nie wnosi niczego nowego ponad to, co oferują wyjaśnienia potoczne. Podstawowy zarzut Chomsky'ego wobec behawiorystów sprowadzał się do tego, że lekceważą oni rolę wewnętrznych stanów umysłu w sterowa niu zachowaniem. Rok wcześniej brytyjski badacz Donald Broadbent (1958) opublikował książkę o ograniczeniach w przetwarzaniu informacji, wynikających z małej pojemności systemu uwagi. Badania prowadził już od lat 40. XX w., kiedy to - pod wpływem potrzeb wojennych - zainicjowano badania nad tzw. czynnikiem ludzkim, czyli wpływem ograniczonych możliwości umysłu ludzkiego na nie zawodność obsługi skomplikowanego sprzętu technicznego. Dojrzałość teoretycz ną i metodologiczną uzyskała psychologia poznawcza w 1967 r., kiedy to Ulric Neisser (1967) opublikował pierwszy systematyczny podręcznik tej dyscypliny. Jeśli natomiast analizować rozwój psychologii poznawczej nie od strony spektakularnych wydarzeń, lecz od strony procesów historycznych, trzeba wskazać na kilka uwarunkowań. Po pierwsze, w latach 50. XX w. dla więk szości psychologów stało się jasne, że radykalne koncepcje behawiorystyczne, próbujące opisywać i wyjaśniać zachowanie człowieka w języku ściśle obser
1.2. Psychologia poznawcza: dziedzina czy paradygmat
33
wacyjnym, czyli w kategoriach związków typu bodziec-reakcja (S-R), poniosły porażkę. Wprowadzenie między bodźce a reakcje tzw. zmiennych pośredni czących, oznaczanych literą O (od organism), niewiele w gruncie rzeczy zmieniło. Model S-O -R jest wprawdzie mniej podatny na krytykę niż pierwot ny model S-R, ale pamiętajmy, że tajemniczym symbolem „O” oznaczano przede wszystkim zjawiska związane z fizjologią organizmu, np. popędy i potrzeby. Z punktu widzenia rodzących się wówczas nauk kognitywnych było to ustępstwo idące w dobrym kierunku, lecz zdecydowanie zbyt skrom ne. Behawioryści, nawet umiarkowani, unikali „mentalistycznych” terminów i konstruktów teoretycznych, wkładając je wszystkie do tajemniczej „czarnej skrzynki”. Natomiast kognitywiści marzyli o tym, aby tę skrzynkę otworzyć i zobaczyć, co zawiera. Dopiero późniejsze prace wywodzące się z nurtu behawiorystycznego, np. monografia Berlyne’a (1969) o myśleniu, na serio zajęły się procesami poznawczymi, opisując je jako ciąg symbolicznych bodźców i reakcji. Behawiorystyczny model opisu zachowania okazał się zatem za ciasny dla badaczy mających ambicje badania wewnętrznych stanów umysłu. Okazał się również niezbyt zdolny do wyjaśnienia faktu, że człowiek jest podmiotem i sprawcą swoich zachowań. Istotą behawiorystycznej koncepcji człowieka była i pozostała idea zewnątrzsterowności, to znaczy podporządkowania człowieka działaniu czynników zewnętrznych (bodźców, wzmocnień itd.). Dopiero psychologia poznawcza „przywróciła” człowiekowi kontrolę nad własnym zachowaniem, choć nie neguje faktu, że ludzie bardzo często podporządkowują swe działania czynnikom zewnętrznym, nawet nie zdając sobie z tego sprawy. Problem kontroli i samokontroli zachowania wydaje się jednym z centralnych zagadnień psychologicznych, co psychologia poznawcza od samego początku uznała, wprowadzając odpowiednie konstrukty teoretyczne i opracowując stosowne procedury badawcze. Nie zapominajmy jednak, że niektórzy badacze bliscy behawioryzmowi są do dziś uznawani za prekursorów kognitywizmu. Wskazać tu należy przede wszystkim Edwarda Tolmana, który już w latach 30. XX w. wprowadził pojęcie map poznawczych i oczekiwań jako czynników wewnętrznych zdolnych modyfikować związki typu bodziec-reakcja. Innym ważnym autorem jest Donald O. Hebb (1949), który opisał działanie tzw. zespołów komórkowych; pomysł ten dał początek późniejszemu rozwojowi sieciowych modeli umysłu (zob. rozdz. 1.3.4). Poza tym behawioryści mają olbrzymie zasługi w „unaukowieniu” psychologii. Można zaryzykować tezę, że choć kognitywiści zasadniczo zmienili przedmiot zainteresowania psychologii, zachowali behawiorystyczną dbałość o metodologię badań, ze szczególnym uwzględnieniem koncentracji na jawnym zachowaniu jako podstawie wniosko wania o ukrytych procesach umysłowych. Ważną przesłanką powstania i rozwoju podejścia poznawczego były prace Jeana Piageta o rozwoju poznawczym dzieci. Jedną z centralnych idei tego szwajcarskiego psychologa i filozofa była teza, że rozwój jest równoważeniem struktur poznawczych. Podmiot asymiluje nowe informacje z otoczenia za pomocą wrodzonych lub wcześniej opanowanych schematów poznawczych. Asymilacja trwa dopóty, dopóki schemat nie utraci swej przydatności. W pew nym momencie dalsze korzystanie ze schematu staje się niemożliwe - zachodzi wówczas stan nierównowagi. Jej przywrócenie wymaga zmiany samego
l i i
n u £ U £ ic t i x . u i u y s i i p u z i i o i i i e
schematu, czyli akomodacji. Rozwój poznawczy to nic innego jak nieustający ciąg asymilacji i akomodacji, dzięki czemu na podstawie starych schematów poznawczych tworzą się nowe, bardziej dostosowane do zadań, a także bardziej złożone i wydajne. Ponadto, zdaniem Piageta, rozwój wymaga własnej aktyw ności podmiotu. Człowiek rozwijający się jest swego rodzaju badaczem: musi sam, w wyniku obserwacji i doświadczeń, dojść do tego, że istniejące schematy stały się nieadekwatne i wymagają akomodacji. Rozwój poznawczy jest więc dla Piageta analogiczny do procesu badania naukowego; tę samą myśl znajdziemy u George’a Kelly’ego, który wprowadził do psychologii określenie człowieka jako „badacza z ulicy”. Trzecia ważna myśl Piageta to teza o konstruktywistycznej naturze poznania. Człowiek nie tyle odbiera informacje z otoczenia, ile samodzielnie konstruuje wewnętrzny obraz świata. Ten wewnętrzny obraz, czyli reprezentacja świata w umyśle, jest zazwyczaj tylko częściowo trafny. Wynika to z faktu, że stanowi raczej samodzielną budowlę niż bierne odbicie rzeczywistości. Jak widać, idee Piageta czynią go jednym z prekursorów poznawczego podejścia w psychologii. Bez takich pojęć, jak schemat poznaw czy, aktywność podmiotu i konstruktywny charakter poznania, trudno byłoby sobie wyobrazić współczesną psychologię poznania i poznawania. Podejście poznawcze było również inspirowane znaczącymi wydarzeniami mającymi miejsce poza psychologią. Zwróciliśmy już uwagę na doniosłość językoznawczych prac Chomsky’ego. Nie mniej ważny był rozwój technologii i teorii informatycznych (Shannon, Weaver, 1949) oraz cybernetycznych (Wie ner, 1948). Rozwój ten pozwolił na wykorzystanie komputerów w sterowaniu eksperymentami i obliczaniu wyników badań oraz - co być może okazało się nawet istotniejsze - umożliwił komputerową symulację procesów poznawczych. Dzięki temu współczesna psychologia poznawcza coraz bardziej łączy klasyczne badania empiiyczne z komputerowym modelowaniem procesów umysłowych. Nie bez znaczenia były też nowe idee na gruncie filozofii umysłu, przede wszystkim prace Jerry’ego Fodora (1975, 1983), Daniela Dennetta (1991) i Patricii Churchland (1986). Prace te dały nowy impuls starym sporom o relacje między umysłem a mózgiem, psychologom zaś unaoczniły doniosłość prob lematyki świadomości, skutecznie wyrugowanej z psychologii w okresie panowania behawioryzmu.
1.2.2. Psychologia a inne dziedziny badań nad poznaniem Poznaniem i poznawaniem interesują się liczne nauki wywodzące się z różnych tradycji teoretycznych i metodologicznych. Najwcześniej rozwiniętą i najbardziej szacowną jest niewątpliwie epistemologia, czyli filozoficzna teoria poznania (Woleński, 2000, 2001, 2003). Jej przedstawiciele zajmują się podstawowymi problemami ludzkiego poznania, takimi jak źródła i charakter wiedzy oraz teoria prawdy. Początkowo teoria poznania rozwijała się jako nauka spekulatywna, pomocniczo wykorzystując logikę i potoczne obserwacje. W miarę rozwoju nauk szczegółowych epistemologia coraz bardziej korzystała z dorobku fizjologii, psychologii, medycyny, językoznawstwa i innych dyscyplin. Intensywnie obecnie rozwijanym działem filozofii zajmującym się pozna niem jest filozofia umysłu (zob. Graham, 1998). W ramach tej dyscypliny bada
1.2. Psychologia poznawcza: dziedzina czy paradygmat
35
się np. klasyczny problem psychofizyczny. Problem ten, w dawnych wiekach definiowany jako problem relacji między materialnym ciałem a niematerialną duszą, obecnie jest raczej stawiany jako kwestia relacji między mózgiem a świa domością. Chodzi w szczególności o to, w jaki sposób mózg generuje świadome stany psychiki, a także jaka jest funkcja i pochodzenie tzw. ąualiów, czyli jakościowo swoistych, subiektywnych stanów świadomości. Szczególne podejście do badań nad poznaniem reprezentuje sztuczna inteligencja. Dziedzina ta zajmuje się konstruowaniem systemów komputero wych zdolnych do wykonywania poszczególnych czynności poznawczych. Już w latach 50. XX w. powstały pierwsze programy, których zadaniem była sy mulacja ludzkich procesów poznawczych, takich jak dowodzenie twierdzeń lub rozwiązywanie problemów. Później rozwinęły się badania nad rozpoznawaniem wzorców {pattern recognition), użyteczne w różnych dziedzinach życia prak tycznego. Sztuczna inteligencja może być uprawiana na dwa sposoby. W pierw szej wersji to po prostu dziedzina nauk inżynieryjnych, a jej celem jest kon struowanie inteligentnych systemów, które mogłyby być wykorzystane w prak tyce. W wersji drugiej chodzi o konstrukcję systemów udatnie naśladujących procesy poznawcze ludzi. W pierwszym przypadku kryterium sukcesu jest praktyczna użyteczność systemu, w drugim - możliwości jego wykorzystania w celu prowadzenia podstawowych badań nad poznaniem. Modelowanie kom puterowe, wymienione przez Allporta (1996) jako czwarta grupa metod ba dawczych w psychologii poznawczej (zob. rozdz. 1.2.3), jest bardzo bliskie drugiej wersji sztucznej inteligencji. Najpełniejszy program badawczy cechuje interdyscyplinarną dziedzinę badań nad poznaniem, zwaną kognitywistyką (cognitive science). Według tzw. raportu Sloane’a, sporządzonego w 1978 r. (zob. Hamish, 2002), kognitywistyka jest próbą syntezy problematyki uprawianej przez sześć tradycyjnych dyscyplin akademickich: filozofię, psychologię, językoznawstwo (lingwistykę), informatykę, antropologię2 i neuronaukę (Bechtel i in., 1998). Nie wszystkie tematy badawcze podejmowane na gruncie owych dyscyplin dotyczą poznania. W przypadku filozofii poznaniem interesują się epistemolodzy, logicy i filozo fowie umysłu. Na gruncie psychologii badania nad poznaniem prowadzą psy chologowie poznawczy, ale też wielu neuropsychologów, psychofizjologów, psychologów rozwojowych i społecznych. W przypadku pozostałych nauk także można stwierdzić, że choć niektóre problemy ściśle wiążą się z poznaniem i poznawaniem, inne są od tej tematyki dość odległe. Zatem tylko część każdej z wymienionych dyscyplin wchodzi w skład kognitywistyki tworząc swoistą wartość dodaną. Rycina 1.1 pokazuje sześciokąt, którego wierzchołki - re prezentujące tradycyjne dyscypliny akademickie - połączono zgodnie z istnie jącymi powiązaniami badawczymi. Tak więc linia nr 1 reprezentuje cybernetykę, linia nr 2 - neurolingwistykę, linia nr 3 - neuropsychologię, linia nr 4 2 Antropologia to nazwa co najmniej trzech różnych dyscyplin naukowych. Jako część filozofii antropologia jest ogólną refleksją nad naturą człowieka. Na gruncie nauk biologicznych antropologia zajmuje się badaniem człowieka jako gatunku, ze szczególnym uwzględnieniem naturalnej ewolucji Homo sapiens. Jaka część socjologii antropologia - zwana kulturową - zajmuje się badaniem kulturowych uwarunkowań ludzkich zachowań i kulturowym zróżnicowaniem struktur społecznych. Częścią kognitywistyki jest niewątpliwie antropologia kulturowa, choć nie bez znaczenia są też osiągnięcia antropologii biologicznej w zakresie ewolucji mózgu i jego funkcji.
oo
Jttozaziai i . um ysf i poznanie
komputerowe symulacje procesów poznawczych, linia nr 5 - „obliczeniową” lingwistykę, linia nr 6 - psycholingwistykę, linia nr 7 - filozofię psychologii, linia nr 8 - filozofię języka, linia nr 9 - lingwistykę antropologiczną, linia nr 10 antropologię poznawczą, a linia nr 11 - badania nad ewolucją mózgu (Bechtel i in., 1998). filozofia
Ryc. 1.1. Sześciokąt nauk kognitywnych (za: Bechtel i in., 1998, s. 70).
Program badawczy kognitywistyki polega nie tyle na uprawianiu wszystkich wymienionych dyscyplin szczegółowych, ile na rozwijaniu lub powoływaniu do życia tych obszarów badawczych, które znajdują się między wierzchołkami sześciokąta. Niektóre z nich są już intensywnie uprawiane, inne dopiero czekają na swój rozwój. Szczególnie interesujące perspektywy wiążą się z powołaniem obszarów badawczych uwzględniających łącznie więcej niż dwie z sześciu dyscyplin wyjściowych. Na przykład na styku filozofii, psychologii i lingwistyki można podejmować problemy badawcze dotyczące natury języka i jego użycia w różnych zadaniach poznawczych (Hamish, 2002). Podobnie na styku filozofii, psychologii i informatyki można prowadzić interesujące badania nad kompute rowym modelowaniem kontroli poznawczej i świadomości. Obecny stan
1.2. Psychologia poznawcza: dziedzina czy paradygmat
37
kognitywistyki jest jednak dość daleki od tak wytyczonego celu ze względu na to, że każda z wymienionych dyscyplin posługuje się ciągle swoistą metodologią i dość specyficznym językiem (zob. Duch, 1998).
1.2.3. Metody badań nad poznaniem Psychologowie poznawczy przejawiają różne orientacje metodologiczne, dlatego są zwolennikami różnorodnych metod badania procesów i struktur umysło wych. Allport (1996) wyróżnia cztery podstawowe grupy metod badawczych. Pierwsza grupa obejmuje metody polegające na obserwacji i rejestracji wykonania zwykłych, codziennych, dobrze wyuczonych czynności poznaw czych, takich jak mówienie na określony temat, słuchanie cudzej wypowiedzi, czytanie itd. Analizuje się głównie błędy popełniane przez badanych w trakcie wykonywania rejestrowanych czynności. W wyniku takiego postępowania otrzy muje się raport zawierający poznawczą charakterystykę obserwowanej czyn ności (np. tworzące ją etapy), rodzaj procesów poznawczych zaangażowanych w wykonanie czynności (np. uwaga selektywna, pamięć semantyczna) oraz źródło błędów (np. dekoncentracja, brak dostępu do zasobów pamięci). Raport taki może sporządzić sama osoba badana, mamy wtedy do czynienia z tzw. samoopisem (self-report). Najczęściej jednak raport sporządza niezależny ba dacz. Niekiedy w wyniku takiego postępowania powstaje studium przypadku (case study), czyli opis działania konkretnej osoby albo grupy osób (np. firmy), utworzony na podstawie obserwacji działania tej osoby w naturalnych w arun kach życia codziennego. Drugą metodą badania przebiegu procesów przetwarzania informacji jest eksperyment laboratoryjny. Eksperymenty zwykle prowadzi się z udziałem „naiwnych”, czyli niedysponujących specjalistyczną wiedzą, osób badanych. Uczestnicy eksperymentu są proszeni o wykonywanie różnego rodzaju prostych zadań poznawczych, wymagających np. porównywania bodźców lub decydo wania, czy określony bodziec był prezentowany wcześniej. W przeciwieństwie do obserwacji w warunkach naturalnych, eksperymenty laboratoryjne są zazwyczaj prowadzone w warunkach sztucznych, choć dokłada się starań, by warunki te jak najbardziej zbliżyć do realnych sytuacji życiowych. Nienaturalne i niezwykle uproszczone są również typowe zadania eksperym entalne. W zamian za nieuniknioną sztuczność sytuacji laboratoryjnej uzyskuje się możliwość dokładnej kontroli przebiegu eksperymentu, w tym kontrolę nad rodzajem prezentowanych bodźców i czasem ich prezentacji. Eksperyment umożliwia też precyzyjną rejestrację reakcji osób badanych, a zwłaszcza czasu reakcji, na podstawie którego wnioskuje się o przebiegu ukrytych procesów poznawczych. Analizie podlega przede wszystkim średni czas reakcji, potrzeb ny osobie badanej na udzielenie prawidłowej odpowiedzi, choć niekiedy inte resujące są również inne wskaźniki chronometryczne (np. maksymalny lub minimalny czas reakcji albo indywidualna zmienność czasu reagowania). D ru gim, obok czasu reakcji, wskaźnikiem interesującym badaczy jest poprawność odpowiedzi, wyrażona zwykle w procentach maksymalnego wyniku możliwego do uzyskania w danych warunkach. Coraz częściej tego typu analizy są wzbogacane o badania neurobiologiczne (Sternberg, 1996). Możliwa jest np.
óo
Rozdział 1. Umysł i poznanie
równoległa rejestracja EEG, czasu reakcji i błędów popełnianych w trakcie wykonania zadania. Kolejną metodą psychologii poznawczej są badania kliniczne z udziałem pacjentów z upośledzeniem poszczególnych zdolności poznawczych. Przyczyną upośledzenia jest uszkodzenie niektórych obszarów mózgowia w wyniku wylewu, urazu mechanicznego lub operacji neurochirurgicznej. Przypadki tego rodzaju są dla nauki bezcenne, ponieważ powstają w wyniku swoistego „eks perymentu” - niezaplanowanego i okrutnego dla osoby badanej, ale badawczo intrygującego. Z oczywistych względów nie można zdrowej osobie uszkodzić wybranych fragmentów mózgu, aby sprawdzić, w jaki sposób zmieni to jej zdolności poznawcze. Natura, dokonując takiego „eksperymentu”, pokazuje nam rolę poszczególnych obszarów mózgu w sterowaniu zachowaniem. Pokazuje też, jak działają poszczególne funkcje poznawcze, ponieważ nic tak nie mówi o przebiegu jakiegoś procesu, jak jego niewydolność w wyniku uszkodzenia. Dzięki obserwacjom klinicznym stwierdzono np., że pamięć krótkotrwała nie przekazuje danych do pamięci długotrwałej natychmiast i automatycznie, lecz z pewnym opóźnieniem, co wynika z działania wyspe cjalizowanego mechanizmu, umiejscowionego w strukturze mózgu zwanej hipokampem. Pewną odmianą podejścia klinicznego są badania nad poznaw czym starzeniem się, w których również obserwuje się deficyty poznawcze u wybranej grupy osób (w tym wypadku u osób starszych). Badania tego rodzaju wymagają zazwyczaj porównania między grupą seniorów a równoważną pod względem wieku i wykształcenia grupą kontrolną. Takich porównań nie zawsze można dokonać w przypadku pacjentów; na przeszkodzie stoi zazwyczaj niewielka liczebność grup klinicznych. Ostatnią z wyróżnionych przez Allporta (1996) metod badawczych jest symulacja komputerowa, czyli modelowanie poszczególnych procesów poznaw czych w postaci klasycznego programu komputerowego lub sztucznej sieci neuropodobnej. Komputerowy model procesu poznawczego jest szczególną postacią teorii naukowej opisującej ów proces. Badacz tworzy sztuczny system zdolny do wykonywania określonych zadań, a następnie porównuje wyniki działania tego systemu z zachowaniem człowieka. Jeśli w wyniku porównania badacz stwierdza daleko idącą zgodność poziomu wykonania, a zwłaszcza liczby i rodzaju popełnianych błędów, może uznać model komputerowy za wystar czająco wierną symulację naturalnych procesów poznawczych. A ponieważ model został stworzony przez badacza, jest mu dokładnie znany pod względem swej architektury i sposobu działania. Badacz może wówczas stwierdzić, że to, co nieznane, czyli działanie umysłu ludzkiego, wolno mu opisać poprzez to, co znane, czyli działanie programu komputerowego lub sieci neuropodobnej. Wia domo, że podobieństwo dwóch systemów na wyjściu, to znaczy podobieństwo pod względem poziomu wykonania zadania, nie musi wynikać z podobieństwa sposobu działania obu systemów, ponieważ ten sam wynik końcowy można uzyskać na wiele sposobów. Dlatego powyższe rozumowanie jest wysoce ryzykowne: umysł ludzki może, ale nie musi działać tak jak system sztuczny, dlatego model komputerowy można przyjąć za teorię procesu poznawczego tylko z pewnym prawdopodobieństwem. Jednak korzyści poznawcze wynikające z modelowania komputerowego wydają się oczywiste, lepiej bowiem dyspono wać prawdopodobną teorią przebiegu procesu umysłowego, niż nie dysponować
1.2. Psychologia poznawcza: dziedzina czy paradygmat
39
żadną. Ponadto klasyczne badania empiryczne też nie dają wiedzy pewnej, a je dynie wiedzę prawdopodobną, ponieważ wnioskowanie z danych empirycznych o nieobserwowalnych procesach umysłowych jest z natury rzeczy zabiegiem poznawczo ryzykownym. Kategoryzację Allporta należałoby uzupełnić o metody obrazowania pracy mózgu (Buckner, Petersen, 1998). Choć rozwinięte na gruncie nauk medycz nych i neurobiologicznych, metody te znajdują coraz szersze zastosowanie w badaniach z zakresu psychologii poznawczej. Obecnie wykorzystuje się dwie techniki z tego obszaru: skanowanie techniką emisji pozytonów (positon emmision tomography, PET) oraz funkcjonalny rezonans magnetyczny (functional magnetic resonance imaging, fMRI). W obu przypadkach rejestruje się aktyw ność metaboliczną różnych obszarów mózgu. Technika PET pozwala na rejestrację poziomu ukrwienia, a technika fMRI - na rejestrację poziomu zuży cia tlenu w wybranych obszarach mózgu. Zakłada się, że wzrost przepływu krwi lub większe zużycie tlenu sygnalizują wzmożoną aktywność określonych obszarów mózgowia. Jeśli więc damy osobie badanej do rozwiązania jakieś zadanie poznawcze, a następnie posłużymy się jedną z metod obrazowania, możemy obserwować, które obszary mózgu są szczególnie aktywne w czasie wykonywania tego zadania. Dzięki temu możemy poznać mózgową lokalizację interesujących nas funkcji poznawczych, np. wybranych rodzajów pamięci. Możemy też poznać różnice w zakresie aktywności mózgu między osobami mniej i bardziej wprawnymi w wykonywaniu tychże zadań, jak też między osobami młodszymi i starszymi, zdrowymi i chorymi albo mniej i bardziej inte ligentnymi. Co więcej, na podstawie obrazowania pracy mózgu można we ryfikować konkurencyjne modele teoretyczne wybranych czynności poznaw czych. Wiemy na przykład, że różne zadania angażujące pamięć uaktywniają różne obszary mózgu, co wyraźnie sugeruje, że pamięć nie jest zjawiskiem jednolitym, to znaczy różne grupy procesów pełnią odmienne funkcje w czyn nościach pamięciowych. Weryfikacja konkurencyjnych teorii wyłącznie na pod stawie danych z obserwacji zachowania nie zawsze jest możliwa. Wadą technik obrazowania jest jednak stosunkowo słaba rozdzielczość czasowa, wynosząca kilka sekund w przypadku fMRI i aż ok. pół minuty w przypadku PET. Większość elementarnych procesów poznawczych trwa mniej niż sekundę, np. przeczytanie słowa zajmuje nam ok. 500 ms. Wobec tego słaba rozdzielczość czasowa technik neuroobrazowania stanowi poważną przeszkodę w ich wykorzystaniu do badania przebiegu procesów umysłowych. Niezależnie od rodzaju zastosowanej metody, kluczem do uzyskania odpowiedzi na interesujące badacza pytanie jest skrupulatna analiza zachowa nia osoby badanej, a zwłaszcza rejestracja poziomu wykonania przez nią zadania poznawczego. Poziom wykonania zadania odzwierciedla bowiem jakość realizujących to zadanie procesów przetwarzania informacji. Analiza poziomu wykonania zadania musi więc być prowadzona tak, aby możliwa była ilościowa oraz jakościowa charakterystyka poszczególnych procesów przetwarzania informacji odpowiedzialnych za wykonanie zadania. W przypadku metody obserwacji, eksperymentu laboratoryjnego i badań klinicznych analiza poziomu wykonania zadania jest jedynym efektem postępowania badawczego, natomiast w przypadku modelowania i neuroobrazowania dane behawioralne są nie zbędnym elementem całej procedury badawczej. Bez analizy wykonania zadań
4U
Rozdział 1. Umysł i poznanie
przez żywych ludzi nie byłoby możliwe komputerowe symulowanie procesów poznawczych, a obrazowanie pracy mózgu utraciłoby psychologiczny sens (choć zachowałoby sens z punktu widzenia biologii czy medycyny). Dlatego tak ważne w psychologii poznawczej jest właściwe wykorzystanie wskaźników wykonania przez osobę badaną przedstawionych jej zadań umysłowych. Najważniejsze wskaźniki to czas reakcji oraz liczba i jakość popełnionych błędów. Pomiar czasu reakcji jako sposób badania funkcji poznawczych rozwinięto w ramach podejścia zwanego chronometrią umysłu (mental chronometry). Nawet w przypadku stosunkowo prostych zachowań - wymagających np. naciś nięcia klawisza na sygnał świetlny lub dźwiękowy - od momentu zadziałania bodźca (sygnału) do momentu wykonania reakcji (naciśnięcia klawisza) upływa pewien czas. Zmienna „czas reakcji” (reaction time, RT; Exner, 1873) dotyczy tego właśnie odcinka, czyli okresu utajenia reakcji3. Na czas upływający po między bodźcem a reakcją składają się czasy trwania poszczególnych etapów reagowania: etapu przesłania informacji na temat bodźca do mózgu, etapu przetwarzania tych informacji przez system nerwowy i etapu zaprogramowania reakcji i wykonania jej przez mięśnie. Badanie czasów reakcji ma - jak na psychologię - stosunkowo długą tradycję, gdyż zaproponowane zostało już w 1850 r. przez pioniera psychologii eksperymentalnej Hermanna von Helmholtza. Trzeba jednak pamiętać, że czas reakcji ma dla psychologa jakąkolwiek wartość poznawczą tylko wtedy, gdy zostanie właściwie zinterpretowany, sam w sobie nie znaczy bowiem nic. Czas reakcji może być np. wskaźnikiem ogólnego stanu psychofizycznego człowieka lub ogólnego tempa przewodnictwa neuronalnego. W obu przypadkach nie jest to miara, z której chcielibyśmy korzystać w badaniu funkcji poznawczych. Dlatego chronometria umysłu polega na umiejętnym manipulowaniu warunka mi zadania poznawczego, przede wszystkim jego złożonością, a następnie mierzeniu czasu potrzebnego na rozwiązanie każdej wersji zadania. Pobrane w ten sposób czasy reakcji są następnie porównywane, odejmowane, sumowane lub inaczej jeszcze przetwarzane. Teoretyczne i metodologiczne podstawy takiego postępowania stworzył w XIX w. holenderski badacz Franciscus Cor nelius Donders. Donders (1868) założył, że wykonanie każdego zadania wymaga serii operacji umysłowych, które dokonują się w czasie rzeczywistym. Jak na owe czasy było to bardzo śmiałe założenie, bo oznaczało, iż operacje mentalne nie są bezczasowymi aktami, lecz realnymi, materialnie zakotwiczonymi procesami. Jeśli operacja mentalna jest procesem, którego długość można zmierzyć, to znaczy, że - przy wszystkich ograniczeniach tego porównania - umysł działa podobnie do urządzeń technicznych. Mówiąc językiem Kartezjusza, operacje umysłowe należałoby zaliczyć raczej do kategorii „rzeczy rozciągłych”, bo mierzalnych, a nie do kategorii rzekomo niematerialnych „rzeczy myślących”. Z naszego punktu widzenia istotne jest przede wszystkim to, że jeśli operacje 3 Stąd używany niekiedy alternatywnie termin „czas latencji”. Jednak w celu uniknięcia nieporozumień proponujemy, aby czas między bodźcem a obserwowalną reakcją osoby badanej nazywać czasem reakcji, zaś termin „czas latencji” zarezerwować dla okresu między bodźcem a bez wiedną reakcją fizjologiczną organizmu, np. potencjałem wywołanym (EEG) lub reakcją elektrodermalną (EDA).
1.2. Psychologia poznawcza: dziedzina czy paradygmat
41
umysłowe dokonują się w czasie rzeczywistym, każda z nich wykonywana jest w osobnym etapie, a wszelkie czynności poznawcze można rozbić na pewną liczbę takich etapów. Donders założył, że etapy są wzajemnie niezależne. Natychmiast po zakończeniu przetwarzania w jednym z etapów informacja jest przesyłana do etapu następnego, a czas niezbędny do przetworzenia informacji w danym etapie nie ma wpływu na czas potrzebny na dalsze przetworzenie danych w kolejnych etapach. Z tych założeń wynika, iż czas potrzebny na wykonanie zadania jest prostą sumą wszystkich odcinków czasu, niezbędnych do zrealizowania każdego etapu zadania. Istotą metody Dondersa jest zasada konstrukcji wielu wersji tego samego zadania, różniących się liczbą niezbędnych operacji umysłowych. Zgodnie z przyjętymi założeniami, wersje te różnią się liczbą etapów przetwarzania informacji, a ponieważ każdy etap wymaga czasu - wersje różnią się też długością czasu, który upływa między bodźcem a reakcją. Na przykład na ciśnięcie guzika w odpowiedzi na jeden bodziec wymaga, w uproszczeniu, trzech etapów: kodowania bodźca, przetworzenia bodźca na reakcję i wykonania reakcji (ryć. 1.2). Naciśnięcie guzika w odpowiedzi na jeden z dwóch bodźców (np. reaguj na zielony, nie reaguj na czerwony) wymaga dodatkowego etapu >
R
RT1
B1
wybór
B2
R
RT2
B1
R1
wybór
decyzja
R1 lub R2
B2
R2 RT3
Ryc. 1.2. Schemat metody Dondersa. Trzy wersje tego samego zadania na czas reakcji różnią się liczbą etapów przetwarzania informacji, a tym samym długością czasu potrzebnego do wykonania zadania. Odejmując globalny czas wykonania zadania w wersji prostszej od czasu potrzebnego na rozwiązanie zadania w wersji bardziej złożonej, otrzymujemy informację o czasie trwania wybranej, nieobserwowalnej operacji umysłowej, np. wyboru bodźca lub podjęcia decyzji co do rodzaju reakcji. BI - bodziec pierwszy, B2 - bodziec drugi, R1 - reakcja pierwsza, R2 - reakcja druga, RT1 - prosty czas reakcji, RT2 - RT1 = czas wyboru bodźca, RT3 - RT2 = czas podejmowania decyzji.
Rozdział 1. Umysł i poznanie
różnicowania bodźców, dlatego cały proces staje się czteroetapowy. Jeśli natomiast zadanie polega na tym, aby nacisnąć prawy guzik w odpowiedzi na światło zielone, a lewy - w odpowiedzi na światło czerwone, potrzebny jest do datkowy etap decyzji co do rodzaju reakcji. Dlatego w tej wersji zadanie wymaga już pięciu etapów. Mierząc całkowity czas reakcji w każdej wersji zadania, możemy ocenić, jak długo trwa wykonanie procesu mentalnego, składającego się z trzech, czterech lub pięciu etapów. Mierzymy więc czas między bodźcem a reakcją, ale wnioskujemy o długości nieobserwowalnego procesu umysłowego. Co więcej, odejmując czas reakcji uzyskany w wersji czteroetapowej od czasu w wersji trzyetapowej, uzyskujemy informację, jak długo trwa jeden z etapów przetwarzania informacji, mianowicie etap różnicowania bodźców. Analogicznie, posługując się metodą odejmowania, możemy ocenić czas trwania etapu decyzji o wyborze właściwej reakcji. Nie widząc zatem, interesujących nas procesów mentalnych, możemy ocenić czas ich trwania. W szczególności możemy stwierdzić, czy wynik odejmowania dwóch wartości czasu reakcji jest większy od zera, bo to oznacza, że dany etap istnieje. Gdyby wynik odejmowania był równy zeru, można by wnioskować, że dany etap nie istnieje, a więc model teo retyczny zakładający jego istnienie jest nieadekwatny do rzeczywistości. W ten sposób, posługując się logiką badawczą zaproponowaną przez Dondersa, możemy weryfikować konkurencyjne modele badanych procesów poznawczych. Wzorując się na metodzie Dondersa i twórczo ją rozwijając, psychologowie poznawczy opracowali wiele technik wnioskowania o procesach poznawczych na podstawie analizy czasu reakcji (ramka 1.1). Charakterystyczną cechą tego podejścia jest konieczność skonstruowania wyjściowego modelu teoretycznego, stanowiącego podstawę do późniejszych pomiarów i innych zabiegów (np. odejmowania wartości czasu reakcji). Model przedstawiony na ryc. 1.2 może się wydawać nadmiernie uproszczony, ale jego zadaniem nie jest wierny opis procesów poznawczych, sterujących naciskaniem guzików w odpowiedzi na dwojakiego rodzaju bodźce, lecz stworzenie warunków do przyszłego badania empirycznego. Na podstawie takiego modelu tworzymy wersje zadania różniące się liczbą etapów przetwarzania informacji. Dopiero dysponując modelem, mo żemy dokonywać pomiarów, odejmować poszczególne czasy reakcji, a następnie wnioskować o strukturze badanego procesu poznawczego, np. o liczbie nie zbędnych etapów. Pod wpływem późniejszych zabiegów metodologicznych możemy ten model poprawić, a nawet całkiem odrzucić, ponieważ spełnił on już swą rolę jako źródło przewidywań co do zachowania osób badanych w różnych warunkach eksperymentalnych. Odrzuciwszy model wyjściowy, przyjmujemy inny - lepiej dopasowany do obserwacji empirycznych. Tak więc model wyj ściowy pełni wyłącznie funkcję heurystyczną, to znaczy jest generatorem przewidywań co do wartości pomiarów w różnych warunkach badania. Jednak nie dysponując takim modelem, nie bylibyśmy w stanie w ogóle niczego zbadać, ponieważ nawet gdyby udało nam się zmierzyć jakiś czas reakcji, nie wiedzie libyśmy, czemu on odpowiada ani o czym świadczy. Podejście zwane chronometrią umysłu wymaga bardzo starannej obróbki danych dotyczących czasu reakcji. Nie potrzeba wyrafinowanego eksperymentu psychologicznego, aby się przekonać, jak bardzo wartość czasu reakcji jest podatna na zakłócenia. Niekiedy - sami nie zdając sobie z tego sprawy - tę samą czynność wykonujemy szybko i bezbłędnie, czasem zaś zdecydowanie wolniej
1.2. Psychologia poznawcza: dziedzina czy paradygmat
43
Ramka 1.1
■i
Zaawansowane wersje chronometrii umysłu
] Twórczymi kontynuatorami Dondersa byli m.in. Saul Sternberg (1969) i Robert i J. Sternberg (1977). Zbieżność ich nazwisk jest przypadkowa, a każdy z tych bada- ? czy dopracował się swojej metody, działając niezależnie od drugiego. Saul Sternberg jest autorem bardzo znanej procedury badania pamięci krótkotrwałej, a Robert J. Sternberg to wybitny badacz inteligencji człowieka. Zaproponowane przez nich wer sje chronometrii umysłu były próbą rozwiązania istotnych problemów związanych | z oryginalną metodą Dondersa. Chodzi o to, że nie każde zadanie da się skonstruo- ; | wać w kilku wersjach, różniących się poziomem złożoności. Nawet jeśli byłoby to możliwe, wersja bardziej złożona może wymagać nieco innych operacji umysłowych i albo nieco innego układu tych operacji, a nie po prostu jednej operacji umysłowej więcej. Jeśli tak, to trudno mówić o spełnieniu jednego z podstawowych założeń metody Dondersa, że odejmowanie wartości czasu reakcji dotyczącego różnych wersji zadania da nam ocenę czasu trwania pojedynczej operacji umysłowej. Ponad to odejmowanie wartości czasu reakcji budzi poważne zastrzeżenia metodologiczne związane z tym, że wartość różnicy zależy od wartości jej składników. Jeśli ktoś np. reaguje bardzo wolno, uzyskana dla takiej osoby różnica wartości czasu reakcji będzie stosunkowo duża, a w każdym razie znacznie większa niż w przypadku kogoś, kto reaguje szybko. W wyniku odejmowania otrzymujemy więc wartości w znacznym stopniu nieporównywalne między osobami. Istotą podejścia, zaproponowanego przez Saula Sternberga, zwanego metodą addytywną, jest manipulowanie warunkami zadania, np. liczbą elementów do zapamiętania lub rodzajem wymaganej reakcji (TAK lub NIE). Manipulując eksperymentalnie warunkami zadania, można sprawdzić, czy mają one wspólny, czy też odrębny wpływ na czas rozwiązania całego zadania. Zakłada się, że jeśli wpływ jest wspólny, zaobserwujemy statystyczny efekt interakcji dwóch lub więcej warunków. Na przykład czas reakcji będzie zależał od warunku A, warunku B, a ponadto od łącznego wpływu obu warunków (interakcja A x B). Jeśli natomiast wpływ miałby być odrębny, oba warunki dadzą efekty proste, nie wchodząc w interakcje, to znaczy czas reakcji będzie zależał od warunku A i osobno od warunku B, ale już nie od łącznego wpływu obu warunków. Sternberg założył, że jeśli dwa warunki wpływają na czas wykonania zadania interaktywnie, to znaczy, że oddziałują na ten sam etap wykonania zadania. Jeśli natomiast dwa warunki nie wykazują wpływów interkatywnych, a jedynie addytywne (tj. sumujące się), „ wówczas oddziałują na różne etapy przetwarzania informacji. W ten sposób, inaczej niż metodą odejmowania, próbuje się ustalić liczbę etapów przetwarzania informacji w danym zadaniu, a także czynniki determinujące proces przetwarzania informacji w poszczególnych etapach. Próbuje się również nadawać teoretyczną interpretację kolejnym etapom zadania, nazywając je kodowaniem danych, porów nywaniem dwóch reprezentacji umysłowych itd. Z kolei metoda Roberta J. Sternberga (1977) nazywa się analizą kompo nentową, ponieważ polega na dekompozycji złożonego procesu poznawczego na elementarne składniki (komponenty), operujące na reprezentacjach poznawczych. Określenie „elementarne” oznacza, że komponentów nie da się już rozbić na skład niki niższego rzędu. Istotą analizy komponentowej jest operowanie wskazówkami
44
Rozdział l. Umysł 1 poznanie
wstępnymi (precues), czyli bodźcami niezbędnymi do wykonania określonych ope racji umysłowych, pojawiającymi się przed właściwym zadaniem poznawczym. Jeśli owych wskazówek wstępnych dostarczymy osobie badanej „za darmo”, to znaczy jeszcze przed włączeniem urządzenia rejestrującego czas reakcji, zmierzona war tość sumarycznego czasu reakcji będzie pomniejszona o czas potrzebny na wyko nanie tych operacji, które „karmią się” dostarczonymi wskazówkami. Proces po znawczy i tak będzie pełny, integralny, niepozbawiony ważnych elementów skła dowych. Jednak sumaryczny czas reakcji będzie wyraźnie krótszy, ponieważ osoba badana wykona niektóre komponenty, jeszcze zanim zaczniemy mierzyć czas. Na przykład zadanie rozwiązywania prostych sylogizmów werbalnych należy rozpocząć od kodowania i identyfikowania poszczególnych informacji składających się na rozwiązywany problem. Można założyć, że kodowanie i identyfikowanie informacji stanowi pierwszy etap przetwarzania w procesie rozwiązywania sylo gizmów. Osoba badana, która rozpoczyna zadanie w momencie, gdy zapoznała się już ze wszystkimi informacjami niezbędnymi do prawidłowego rozwiązania, skraca proces rozwiązywania sylogizmu o ten właśnie pierwszy etap, zwany etapem kodowania. Możemy oczywiście dostarczać różnych wskazówek wstępnych, tym samym umożliwiając osobie badanej wykonanie różnych komponentów „za darmo”, czyli zanim zaczniemy mierzyć czas. Porównując teraz czas reakcji uzyskany w warunkach eksperymentalnych, różniących się liczbą i charakterem dostarczonych wskazówek wstępnych, możemy ocenić czas trwania poszczegól nych komponentów, a przede wszystkim to, czy dany komponent w ogóle istnieje. Opisany sposób postępowania pozwala weryfikować złożone modele przetwa rzania informacji, a ponadto badać różnice indywidualne. Okazuje się bowiem, że ludzie różnią się ze względu na czas wykonania poszczególnych komponentów, a różnice te bywają skorelowane z innymi wymiarami, np. z inteligencją ogólną.
i mniej precyzyjnie. Przy wielokrotnych powtórzeniach danej czynności - gdy narasta wprawa, ale też i zmęczenie - niektóre powtórki są bardziej, inne zaś mniej udane. Dlatego, opierając wnioskowanie na czasach reakcji, niezbędne jest zachowanie pewnych rygorów metodologicznych. Do grona zabezpieczeń przed przypadkowością pomiaru należy m.in. stosowanie dużej liczby powtó rzeń wykonania tego samego zadania. W typowym eksperymencie psychologicz nym osoba badana wykonuje to samo proste zadanie kilkadziesiąt razy. W koń cowym wnioskowaniu wykorzystuje się średnie czasy reakcji, obliczane na pod stawie wszystkich wykonanych prób. Niektórzy badacze stosują ponadto statys tyczne procedury „poprawiania” wyników, polegające na odrzucaniu wartości skrajnych. Na przykład w końcowych obliczeniach nie uwzględnia się danych pochodzących od osoby, której wyniki zdecydowanie odbiegają od przeciętnego (charakterystycznego dla pozostałych badanych) wzorca reagowania (Jensen, 1982). Podejście to zakłada, iż osoba, która wykonała zadanie wyraźnie inaczej niż pozostali uczestnicy eksperymentu, albo nie zrozumiała instrukcji, albo z innych powodów nie była w stanie zadania wykonać, a w konsekwencji wy konała coś zupełnie innego, niż zakładano. Może to oznaczać, że badany przez nas proces poznawczy u takich osób po prostu nie wystąpił. Pierwsze z po wyższych zabezpieczeń przed przypadkowością pomiaru, czyli duża liczba pow
1.3. Ogólna architektura umysłu
45
tórzeń, zwanych próbami eksperymentalnymi (trials), jest powszechnie stosowa ne i z pewnością korzystne, drugie natomiast wydaje się kontrowersyjne (Nęcka, 1994). Nie można bowiem wykluczyć, że osoba reagująca znacznie dłużej lub krócej od pozostałych uczestników eksperymentu stosuje swoistą strategię poz nawczą, a więc radzi sobie z zadaniem inaczej, niż to przewiduje wstępny model teoretyczny przyjęty przez badacza. W takiej sytuacji eliminowanie osób nie typowych może oznaczać niezamierzone fałszowanie wyników badań. Natomiast zabiegiem całkowicie uprawnionym i powszechnie stosowanym jest „czyszczenie” wyników, polegające na usuwaniu nienaturalnie długich wartości czasu reakcji z serii prób pobranych od tej samej osoby. Takie nie naturalnie długie wartości czasu reakcji zwykle wynikają z dekoncentracji osoby badanej lub z wpływu czynników niekontrolowanych. Ponadto w badaniach z użyciem technik chronometrii umysłu zwykle nie uwzględnia się czasu reakcji błędnych, nie wliczając tych wartości do sumy stanowiącej podstawę obliczania średniego czasu reakcji. Uważa się mianowicie, że czas reakcji błędnej jest czasem nie wiadomo czego. Jeśli reakcja jest poprawna, jej czas informuje nas o sumarycznej długości czasu potrzebnego na wykonanie wszystkich zakłada nych przez nas etapów przetwarzania informacji. Ten sumaryczny czas może być następnie odejmowany od innych wartości itd. Jeśli natomiast reakcja jest błędna, to nie wiemy, co się stało: czy któryś etap został przez badanego wy konany, ale źle, czy też po prostu pominięty. W takiej sytuacji należy czas reakcji błędnej zignorować, odnotowując sam fakt wystąpienia błędu. Równie ważnym co czas reakcji wskaźnikiem przebiegu procesów poznaw czych są bowiem błędy popełniane podczas wykonania zadania, a zwłaszcza ich rodzaj i sumaryczna liczba. Na podstawie błędów możemy wnioskować nie tylko o tym, czy system poznawczy jest sprawny, ale i o przebiegu interesujących nas procesów poznawczych. Specyficzność popełnianych błędów pozwala czasem wnioskować o przebiegu procesu przetwarzania, np. o odmiennych strategiach stosowanych przez różne grupy osób badanych. Nawet w bardzo prostych zadaniach, np. wymagających reagowania jedną ręką na światło zie lone, a drugą na czerwone (zob. ryc. 1.2), zdarzają się błędy. W tym zadaniu można się pomylić co najmniej na dwa sposoby: (1) nie naciskając przycisku, choć zgodnie z instrukcją należało to zrobić, lub (2) naciskając przycisk, mimo że warunki zadania tego nie wymagały. W pierwszym przypadku popełniamy błąd ominięcia (OM), w drugim - błąd fałszywego alarmu (FA). Informacje dotyczące błędów analizuje się na kilka sposobów. Czasem uwzględnia się ogólną liczbę błędów dowolnego rodzaju, czasem zaś wzajemny stosunek ominięć lub fałszywych alarmów do całkowitej liczby błędów. Skłonność do popełniania raczej OM niż FA, lub odwrotnie, zależy od warunków zadania, instrukcji, indywidualnych preferencji osoby badanej lub od przyjętej przez nią strategii radzenia sobie z zadaniem.
1.3. Ogólna architektura umysłu Przez pojęcie ogólnej architektury umysłu rozumiemy swoisty rodzaj teorii naukowej. Jest to teoria o bardzo dużym poziomie ogólności, opisująca naj
<40
nozaział i. umysi i poznanie
ważniejsze elementy budulcowe umysłu oraz ich wzajemne relacje. Każda z pro ponowanych architektur poznawczych opisuje więc strukturę systemu poznaw czego, a także wynikające z niej ogólne zasady przetwarzania informacji. Two rzy ogólne ramy teoretyczne, w których konstruuje się teorie o węższym zasięgu, opisujące już konkretne procesy lub czynności poznawcze.
1.3.1. Blokowe m odele um ysłu Podstawowe założenie modeli blokowych głosi, że informacja jest przetwarzana przez system poznawczy sekwencyjnie i „oddolnie” (bottom-up), czyli od wejścia sensorycznego aż po wyjście behawioralne. Sekwencja przetwarzania składa się z kilku lub kilkunastu etapów następujących kolejno po sobie i realizowanych w kolejnych blokach procesów przetwarzania informacji. Blok można zdefiniować jako zespół procesów przetwarzania informacji o podobnym charakterze i zadaniach, obsługujący wyróżnioną czynność poznawczą (np. spostrzeganie, pamięć, kontrolę motoryki). Z reguły w każdym modelu bloko wym, mającym ambicję ujęcia całości systemu poznawczego, uwzględniano następujące bloki: wejście sensoryczne, uwagę, spostrzeganie, pamięć, procesy myślowe, procesy decyzyjne, wyjście behawioralne. Jednym z najpopularniejszych, wczesnych modeli systemu przetwarzania informacji jest blokowy model Atkinsona i Shiffrina (1968) .W tym ujęciu system przetwarzania informacji składa się z trzech magazynów pamięci: rejestru sen sorycznego, pamięci krótkotrwałej oraz pamięci długotrwałej. Docierające z oto czenia informacje przechodzą przez magazyny systemu poznawczego w tej właś nie kolejności (ryc. 1.3), przy czym na każdym etapie podlegają selekcji. O tym, które informacje przejdą z rejestru sensorycznego do pamięci krótkotrwałej, decydują procesy uwagi. Natomiast transfer informacji z magazynu pamięci krótkotrwałej do magazynu pamięci długotrwałej jest warunkowany jedną z naj ważniejszych operacji kontrolnych: powtarzaniem (rehearsal) i organizowaniem materiału. Informacja niepowtarzana bezpowrotnie zanika wraz z upływem czasu, podczas gdy informacja wystarczająco długo podtrzymywana dzięki kolej nym powtórkom zostaje trwale zapisana w pamięci długotrwałej. Pojemność ma gazynu pamięci długotrwałej autorzy uznali za nieograniczoną, a tzw. zapo minanie wyjaśniali raczej brakiem dostępu do informacji niż jej utratą. Natomiast pojemność rejestru sensorycznego, a zwłaszcza pamięci krótkotrwałej, uznali za bardzo ograniczoną. Aby określone informacje mogły być przez właściwy pod system przetworzone, muszą zostać wcześniej zapisane w odpowiednim formacie, za co odpowiedzialne są procesy kodowania pamięciowego. Na przykład pamięć krótkotrwała, według Atkinsona i Shiffrina, przetwarza informacje werbalne, podczas gdy pamięć długotrwała zorganizowana jest raczej według znaczenia przechowywanych w niej informacji. Za sterowanie procesem przetwarzania in formacji na poszczególnych etapach, jak też za transfer z jednego magazynu pamięci do innego odpowiedzialne są procesy kontrolno-regulacyjne. Zarządzają one analizą sensoryczną, regulacją transferu pomiędzy magazynami, przebiegiem wydobywania informacji z pamięci długotrwałej oraz zapominaniem. Istotnym elementem modelu Atkinsona i Shiffrina jest generator reakcji. Jak widać (ryc. 1.3), reakcja może wystąpić w odpowiedzi na informacje do-
1.3. Ogólna architektura umysłu
47
Ryc. 1.3. Blokowy model przetwarzania informacji Atkinsona i Shiffrina (za: Bechtel i in., 1998, s. 47).
pływające z każdego z trzech bloków pamięci. Sama zawartość rejestru senso rycznego może dać impuls do wytworzenia reakcji z pominięciem dwóch pozostałych systemów pamięci. To samo dotyczy pamięci krótkotrwałej. Nato miast pamięć długotrwała może wytworzyć reakcję bezpośrednio albo za pośrednictwem pamięci krótkotrwałej. W późniejszej wersji swojego modelu Atkinson i Shiffrin (1971) przyjęli, że reakcja może być wyprodukowana tylko przez system krótkotrwałego prze chowywania informacji (short term storę, STS). W tymże systemie działają też procesy kontroli, takie jak powtarzanie materiału, kodowanie informacji, podejmowanie decyzji i strategie przywoływania informacji z systemu długo trwałego przechowywania informacji (long term storę, LTS). Blok pamięci krót kotrwałej awansował więc do roli centralnego systemu przetwarzania infor macji. Zachowano jednak dwa pozostałe bloki, czyli rejestr sensoryczny (wzro kowy, słuchowy, dotykowy i inne) oraz magazyn pamięci długotrwałej. Ten ostatni komunikuje się obustronnie już tylko z blokiem pamięci krótkotrwałej, tracąc zdolność do samodzielnego sterowania zachowaniem. Model Atkinsona i Shiffrina zbudowano z wykorzystaniem wcześniejszych badań nad pamięcią. Na przykład rejestr sensoryczny odpowiada odkrytej przez George’a Sperlinga (1960) pamięci ikonicznej, stanowiącej coś w rodzaju bardzo krótkiego (200-500 ms) śladu bodźca wzrokowego na siatkówce oka. Z kolei podział na pamięć krótko- i długotrwałą był znany już od czasów Williama Jamesa4, a na pewno od dwóch słynnych prac, w których wykazano ograniczoną pojemność systemu pamięci krótkotrwałej (Miller, 1956; Peterson, 4 William James używał terminów: pamięć pierwotna i wtórna.
fŁtS
Kozdział i. Umysł i poznanie
Peterson, 1959). Wartość tego modelu należy więc mierzyć nie tym, jak ory ginalne były poszczególne rozwiązania terminologiczne, ale tym, w jaki sposób różne części systemu poznawczego powiązano w spójny mechanizm zdolny do przetwarzania informacji i sterowania zachowaniem. Ponadto model ten dał początek nowemu sposobowi uprawiania psychologii poznawczej, polegającemu na konstruowaniu blokowych koncepcji umysłu. Wraz z rozwojem badań zwolennicy teorii blokowych rozpoczęli konstruowanie bardziej szczegółowych modeli dotyczących wcześniej wyróżnionych, poszczególnych podsystemów czy też etapów przetwarzania informacji. Modele te nie miały już ambicji opisania całości systemu poznawczego człowieka, a jedynie przedstawienie jego fra gmentów. Za wzór może posłużyć stosunkowo wczesna praca Broadbenta (1958). Autor skonstruował hydrauliczny model uwagi selektywnej, wyróżnia jąc w nim trzy bloki: kanały sensoryczne, filtr uwagi i kanał przetwarzania semantycznego. Modele te będą dokładniej prezentowane przy okazji omawia nia problematyki uwagi i pamięci. Tu warto jedynie nadmienić, że w konstrukcji tych modeli zostały zachowane podstawowe zasady modeli blokowych (zasada sekwencyjności oraz „oddolny” kierunek przetwarzania). Wsparciem dla konstrukcji modeli blokowych była tzw. komputerowa metafora umysłu. Polega ona na porównywaniu elementów ludzkiego systemu poznawczego do analogicznych elementów systemu komputerowego. Komputer składa się z urządzeń wejścia (np. klawiatura, mysz, napęd dysków, podłączenie sieciowe), urządzeń wyjścia (monitor, drukarka, napęd urządzeń zapisujących na dysk, podłączenie sieciowe) oraz urządzeń pośredniczących między wejściem a wyjściem. Urządzenia te nazywa się niekiedy „czarną skrzynką”, podkreślając w ten sposób ukryty, nieobserwowalny charakter samych urządzeń, jak też wykonywanych przez nie czynności. W komputerowej „czarnej skrzynce” wy stępują m.in.: procesor, pamięć operacyjna, twardy dysk. Zestawiając te urzą dzenia z wyróżnionymi powyżej blokami przetwarzania informacji, łatwo dostrzec wyraźne analogie, uwidocznione w tab. 1.1. Co więcej, komputer dziaTab. 1.1. Komputerowa metafora umysłu (oprać, własne). Umysł
Komputer
procesy sensoryczne
klawiatura, skaner
pamięć robocza
pamięć operacyjna
procesy myślowe
procesor
pamięć trwała
twardy dysk
procesy decyzyjne
procesor
wyjście behawioralne
monitor, drukarka
ła według reguły przetwarzania „oddolnego”: pobiera dane na wejściu, następnie przetwarza je zgodnie z dostępnymi algorytmami działania, by w końcu „wy produkować” informację na wyjściu. Można więc powiedzieć, że metafora kom puterowa wiernie oddaje działanie blokowego systemu poznawczego, a kompu ter prawdopodobnie został stworzony „na obraz i podobieństwo” systemu poznawczego człowieka.
1.3. Ogólna architektura umysłu
49
Z drugiej strony coraz więcej danych wskazuje na nieadekwatność metafory komputerowej. Przede wszystkim komputer jest - przynajmniej na razie urządzeniem działającym sekwencyjnie. Można na nim wprawdzie imitować równoległość procesów, ale w praktyce polega to na niezauważalnie krótkich zmianach „zaangażowania uwagi procesora” w obsługę poszczególnych tzw. równoległych programów. Tymczasem umysł, a zwłaszcza jego materialne pod łoże, czyli mózg, cechuje się równoległością przetwarzania. W tym samym czasie w wielu miejscach systemu zachodzą różne procesy, ale nie ma centralnego ośrodka przetwarzania. Tego rodzaju krytyka doprowadziła do powstania nowego nurtu w modelowaniu procesów poznawczych, zwanego koneksjonizmem (zob. rozdz. 1.3.4). Modele blokowe poddano ostrej krytyce nie tylko ze względu na zbyt daleko posuniętą analogię między umysłem a komputerem. Podkreślano przede wszyst kim, że sekwencyjne ujęcie procesu przetwarzania informacji jest sprzeczne z licznymi danymi empirycznymi (MacKay, 1998). Na przykład blokowy, sek wencyjny model percepcji liter, zwany Pandemonium (Selfridge, Neisser, 1960), zakłada, że najpierw analizujemy pojedyncze cechy (linie, krzywizny itd.), na ich podstawie rozpoznajemy kształt całej litery, następnie identyfikujemy znaczenie tej litery i podejmujemy decyzję na temat tego, co właściwie widzimy. Dość szybko okazało się, że model Pandemonium słabo pasuje do wyników badań empirycznych. Według McClellanda i Rumelharta (1981), człowiek nie analizuje pojedynczych cech, lecz całość wzorca, jakim jest litera. Co więcej, analiza sensorycznych właściwości bodźca dokonuje się równolegle z analizą semantyczną, zmierzającą do stwierdzenia, co znaczy widziana przez nas litera. Ponadto litery zwykle nabierają sensu dopiero w szerszym kontekście słowa, które tworzą, dlatego proces semantycznej analizy poszczególnych liter doko nuje się równolegle z procesem semantycznej analizy słów. Ponieważ informacje o znaczeniu liter i słów są przechowywane w pamięci trwałej, analiza senso ryczna musi się dokonywać równolegle z przywoływaniem danych z tejże pa mięci, co jest rażąco sprzeczne z modelem Atkinsona i Shiffrina i w ogóle z większością blokowych modeli umysłu. Wizja umysłu jako systemu działają cego sekwencyjnie i przetwarzającego informacje zawsze w tym samym kierun ku wymagała więc zasadniczej rewizji.
1.3.2. Koncepcja poziomów przetwarzania Koncepcja poziomów przetwarzania informacji, zaproponowana przez Craika i Lockharta (1972), miała stworzyć ogólne ramy teoretyczne badań nad pamięcią. Szybko jednak zyskała popularność jako alternatywny - w stosunku do modeli blokowych - sposób opisu ogólnej architektury umysłu. Podstawowe założenie koncepcji poziomów przetwarzania informacji głosi, że każda informacja jest przetwarzana przez te same struktury, ale na różnym poziomie „głębokości”. Nie przewiduje się tu wyodrębnionych etapów przetwarzania i odpowiadających im struktur, w związku z czym nie ma potrzeby tworzenia modeli blokowych. Pojęcie głębokości przetwarzania (depth of processing) jest oczywiście metaforą, ale można je rozumieć jako zakres i intensywność obróbki danych. Wraz z „pogłębianiem” przetwarzania wzrasta zarówno liczba, jak
¡j u
n o z a z ia i i . u m y s i i p o z n a n ie
i złożoność operacji, jakim w toku procesu przetwarzania poddawane są docierające do systemu informacje. Można wyróżnić co najmniej trzy poziomy przetwarzania. Na pierwszym, płytkim poziomie dokonuje się sensoryczna analiza danych. Rezultaty płytkiego przetwarzania informacji są nietrwałe i bardzo podatne na wszelkiego rodzaju zakłócenia. Poziom ten jest jednak wystarczający do poprawnego wykonania niektórych zadań, np. detekcji dwóch identycznych znaków (liter, cyfr, błysków światła itp.). Kolejny poziom jest już głębszy - dokonuje się na nim semantyczna interpretacja odbieranego sygnału. Na przykład czytając tekst, zazwyczaj się gamy do znaczenia użytych w nim słów, chociaż niekiedy wystarczy nam powierzchowna analiza rodzaju czcionki lub koloru liter. Poziom ten jest również konieczny do stwierdzenia identyczności dwóch lub więcej elementów należących do jednej kategorii znaczeniowej (np. owoców, pojazdów, zwierząt). Przetwarzanie głębokie trwa znacznie dłużej niż płytkie, ale jego rezultaty są trwalsze i bardziej odporne na wszelkiego rodzaju czynniki zakłócające. Infor macje przetworzone na poziomie głębokim są np. odporne na zapominanie, podczas gdy dane przetworzone na poziomie płytkim w większości bezpo wrotnie tracimy. Na trzecim, najgłębszym poziomie przetwarzania aktywizu jemy różne skojarzenia związane z wcześniej odebranym i przeanalizowanym sensorycznie lub semantycznie sygnałem. Skojarzeniami takimi mogą być np. obrazy czy pojęcia powiązane znaczeniowo z sygnałem przetwarzanym na poziomie drugim (głębokim). Na najgłębszym poziomie przetwarzania możliwe jest wzbogacenie naszej wiedzy o dodatkowe elementy bądź też włączenie już istniejących elementów wiedzy w nowe struktury poznawcze. Informacja podlegająca przetwarzaniu może pochodzić z dwóch źródeł. Pierwotny obieg informacji polega na przejściu danych odbieranych na poziomie płytkim przez poziom głęboki aż do poziomu najgłębszego. Oczywiście nie każda informacja schodzi na głębsze poziomy przetwarzania. Zależy to od wielu czynników, m.in. od wymagań sytuacji, od instrukcji eksperymentalnej, od in dywidualnych preferencji czy też od ilości dostępnego czasu. Wtórny obieg informacji polega natomiast na tym, że dane zakodowane w pamięci mogą zostać włączone do przetwarzania na którymkolwiek poziomie, krążąc po nim dowolnie długo. Wtórny obieg dotyczy więc zjawisk pamięciowych, które nie wymagają dopływu informacji z zewnątrz ani też rejestrowania informacji dotyczących własnego zachowania jednostki. Oprócz dwóch obiegów informacji Craik i Lockhart (1972) wyróżnili dwa typy przetwarzania. Typ I związany jest z wtórnym obiegiem informacji na tym samym poziomie przetwarzania. Na tomiast w przypadku typu II następuje transfer (przejście) informacji na poziom głębszy na skutek wtórnego obiegu na poziomie płytszym. W wyniku przetwa rzania typu I dochodzi z reguły do zapominania informacji, chyba że zaczynają one krążyć w obiegu wtórnym. Zapamiętywanie informacji jest znacznie lepsze, gdy mamy do czynienia z typem II przetwarzania, a więc z transferem informacji na głębsze poziomy przetwarzania i wtórnym ich obiegiem na poziomie najgłębszym. Model Craika i Lockharta (1972) przedstawia umysł jako system jednolity, bez wyodrębnionych „pudełek” przekazujących sobie informacje w określonym porządku. Zamiast poszczególnych bloków mamy tutaj system o jednolitej struk turze, bez kolejnych etapów przetwarzania, za to z wydzielonymi poziomami
1.3. Ogólna architektura umysłu
51
obróbki danych - od płytkiego do najgłębszego. Wejście do systemu może być zlokalizowane na którymkolwiek z poziomów, nie ma więc potrzeby wyróżniania wyspecjalizowanych mechanizmów przewodzenia informacji z rejestru senso rycznego do pozostałych struktur. Co więcej, informacja może pozostawać we wtórnym obiegu na którymkolwiek z poziomów przetwarzania lub go opuścić, ale zawsze w stronę poziomów głębszych. Z tego względu model ten, podobnie jak modele blokowe, należy uznać za przykład takiej architektury poznawczej, która zakłada zasadniczo „oddolny” kierunek przetwarzania. Zgromadzono wiele danych empirycznych potwierdzających słuszność modelu jednorodnego systemu poznawczego. Dotyczą one głównie zależności jakości zapamiętywania od głębokości procesów przetwarzania informacji uczestniczących w zapamiętywaniu. Badania te zostaną szerzej omówione w rozdz. 9, poświęconym funkcjonowaniu pamięci. Wnioski przedstawione przez Craika i Lockharta (1972) na podstawie całej serii podobnych ekspery mentów były następujące. Po pierwsze, efektywność pracy systemu poznaw czego zależy od głębokości przetworzenia informacji. Tę samą informację system poznawczy może przetwarzać na różnych poziomach, ale skutki jego pracy są tym lepsze, im głębszy poziom przetwarzania zaktywizowano. Po dru gie, jeśli informacja jest przetwarzana na poziomie płytkim, proces przetwa rzania podlega wielu zakłóceniom, a dane - szybkiemu zapominaniu. Jeśli natomiast pozwoli się na obieg informacji na poziomach głębszych, w systemie poznawczym pozostanie znacznie więcej „niezakłóconych” danych. Po trzecie, o wyborze poziomu przetwarzania danej informacji decydują wskazówki zew nętrzne (np. rodzaj zadania) lub wewnętrzne (np. wymagania przyjęte przez sam system poznawczy). System może też sam narzucić wtórny obieg infor macji II typu, osiągając wówczas najlepsze rezultaty obróbki danych.
1.3.3. Umysł jako system m odułow y Jeden z najważniejszych sporów teoretycznych, toczonych na gruncie nauk kognitywnych, dotyczy modularnej natury umysłu. Centralne pytanie tej debaty brzmi: czy umysł jest „urządzeniem” uniwersalnym, zdolnym do przetwarzania dowolnego rodzaju informacji w dowolnym celu, czy też składa się z dużej liczby wysoce wyspecjalizowanych struktur niższego rzędu, zwanych modułami? Gdyby umysł miał naturę uniwersalną, najlepiej byłoby go porównać do komputera, który również jest narzędziem wszechstronnym: w zależności od dostarczonego mu oprogramowania może przetwarzać tekst, dokonywać obliczeń statystycznych, sterować przebiegiem różnych procedur i wykonywać tysiące innych zadań, nie zmieniając swojej budowy i sposobu działania. Natomiast dobrą metaforą umysłu modularnego jest skrzynka z narzędziami (Gigerenzer, Todd, 1999), w której znajdziemy mnóstwo różnych, specjalis tycznych przyrządów, ale na próżno szukalibyśmy narzędzia uniwersalnego. Chociaż debata nad modulamością umysłu toczy się od dość dawna, nowy impuls nadał jej filozof Jerry Fodor, autor książki Modularity of m ind (1983). W ujęciu Fodora, umysł składa się z trzech rodzajów budulca: przetworników (,transducers), systemów centralnych i modułów. Rolą przetworników jest po zyskiwanie energii dopływającej do organizmu i przekształcanie jej w postać
Dct
Kozaziat i. umysł i poznanie
dostępną dla pozostałych mechanizmów psychologicznych. Rolą systemów centralnych jest wnioskowanie i tworzenie przekonań; systemy te odpowiadają zatem za myślenie albo też za poznanie w wąskim sensie tego słowa. Natomiast zadanie modułów polega na pośredniczeniu między przetwornikami a systemami centralnymi. Fodor obrazowo określa tę funkcję jako „dostarczanie świata myślom”. Istotą modułów jest ich zależność od dziedziny (domain specificity) i automatyczność działania (Appelbaum, 1998). Pierwsza cecha oznacza, że każdy moduł może działać tylko na wyróżnionej klasie bodźców, takich jak twarz ludzka, dźwięki mowy itd. Co więcej, każdy moduł jest wyspecjalizowany w jednej funkcji i nie może pełnić żadnej innej. Na przykład moduł rozpo znawania twarzy nie nadaje się do spostrzegania figur geometrycznych, a moduł różnicowania głosek, istotny dla rozumienia mowy, nie nadaje się do rozpozna wania twarzy. Z kolei automatyczność oznacza, że raz uruchomiony moduł nie może „wyhamować”, dopóki nie wykona swego zadania, za to działa szybko i nie angażuje centralnych zasobów poznawczych (uwagi, pamięci roboczej). Dzięki modułom możemy szybko i sprawnie wykonywać bardzo skomplikowane czynności poznawcze. Sterowanie takimi czynnościami z poziomu systemów centralnych wymagałoby olbrzymich „mocy obliczeniowych”, a mimo to rezultat byłby mało satysfakcjonujący (dużo błędów, długi czas działania). Fodor twierdzi ponadto, że moduły działają we względnej wzajemnej niezależności, są jak gdyby osobnymi „kapsułkami” poznawczymi, wyizolowanymi od reszty systemu poznawczego. Również rozwój poznawczy polega na pojawianiu się modułów we względnej niezależności od innych „kapsułek” i od całości systemu poznawczego. Wbrew szeroko rozpowszechnionemu przekonaniu, Jerry Fodor nie tłumaczy wszystkich funkcji poznawczych działaniem wyspecjalizowanych mo dułów. Twierdzi, że wyższe funkcje poznawcze, np. myślenie i rozumowanie, są realizowane inaczej, mianowicie za pośrednictwem uniwersalnego systemu przetwarzania danych. Domeną modułów jest przede wszystkim percepcja, a ponadto sterowanie motoryką. Tak więc moduły obsługują głównie wejście i wyjście systemu poznawczego, podczas gdy centralne funkcje tego systemu są obsługiwane przez uniwersalny „procesor” wszechstronnego zastosowania. Pogląd ten nie zawsze jest podzielany przez zwolenników koncepcji moduło wych. Niektórzy, np. Gerd Gigerenzer (Gigerenzer, Todd, 1999), odwołują się do modułów w wyjaśnianiu „wyższych” funkcji poznawczych, takich jak rozu mowanie, wnioskowanie i podejmowanie decyzji. To właśnie Gigerenzer jest autorem metafory umysłu jako „przydatnej skrzynki z narzędziami” (adaptive toolbox), z której każdy z nas czerpie w miarę potrzeb. Gigerenzer i jego współpracownicy wykazali, że niektóre zadania wymagające wnioskowania z przesłanek, stosunkowo trudne dla większości ludzi, stają się dość łatwe wtedy, gdy zostaną przedstawione w kontekście społecznym (zob. rozdz. 12). Istnieje na przykład wyspecjalizowany moduł wykrywania oszustów; jego uruchomienie sprawia, że trudne zadania logiczne, wymagające rozumowania warunkowego, stają się dość łatwe nawet dla małych dzieci (Cosmides, 1989). Modułowy charakter wyjaśnień psychologicznych zyskał szczególną po pularność na gruncie psychologii ewolucyjnej (Buss, 1999; Pinker, 1997). Przedstawiciele tego kierunku widzą umysł jako zestaw wysoce wyspecjalizo
1.3. Ogólna architektura umysłu
53
wanych funkcji, rozwiniętych w procesie ewolucji w wyniku działania tzw. nacisku selekcyjnego. Podobnie jak oko, ucho, serce i wszystkie pozostałe narządy ciała, również umysł jest swoistym „narządem” przystosowania się organizmu do środowiska, tyle że nie jednolitym, a właśnie modułowym. Według Anne Campbell (2004), założenie o modularności ludzkiego poznania jest jedną z cech wyróżniających psychologię ewolucyjną spośród innych kierunków myśli psychologicznej. Warto jednak pamiętać, że gdyby umysł człowieka był w całości złożony z modułów, nie pojawiłyby się chyba w toku ewolucji funkcje uni wersalne i wszechstronne w zastosowaniu, takie jak kontrola poznawcza lub rozwiązywanie problemów. Dlatego warto pamiętać o umiarkowanym stano wisku Fodora w kwestii modułowej natury umysłu.
1.3.4. Sieciow e m odele um ysłu Sieciowe modele umysłu powstały w odpowiedzi na krytykę formułowaną pod adresem tradycyjnej sztucznej inteligencji, jak też pod adresem modeli bloko wych wraz z leżącą u ich podłoża komputerową metaforą umysłu. Podkreślano, że modele blokowe i tradycyjne programy sztucznej inteligencji opierają się na fałszywej, niezgodnej ze współczesną wiedzą, wizji działania mózgu. Krytyko wano też skłonność autorów modeli blokowych do myślenia w kategoriach homunculusa: inteligentnego ludzika odpowiedzialnego za kontrolę procesu przetwarzania informacji. Podkreślano, że umysł ludzki ma zdolność samo organizacji i samokontroli, zatem koncepcje jego ogólnej architektury powinny ten fakt brać pod uwagę. Narodziny nowego podejścia do modelowania procesów poznawczych, zwanego koneksjonizmem, przypisuje się dziełu grupy uczonych z MIT, pracujących pod kierunkiem McClellanda i Rumelharta (McClelland, Rumelhart, and the PDP Research Group, 1986; Rumelhart, McClelland, and the PDP Research Group, 1986). Mimo wielości i różnorodności stworzonych do tej pory modeli, podejście koneksjonistyczne opiera się kilku podstawowych założeniach (Elman, 1998). Przyjmuje się, że przetwarzanie informacji dokonuje się dzięki aktywności bardzo licznych, ale niezwykle prostych jednostek (units). Tworzą one sieć, której węzły - tożsame z jednostkami - aktywizują się nie jeden po drugim, lecz w tym samym czasie. Wobec tego koneksjoniści twierdzą, że poznanie jest równoległym i rozproszonym przetwarzaniem informacji (parallel and distributed processing, PDP). Twierdzą, że taki model poznania jest bardziej „wiarygodny biologicznie”, ponieważ lepiej symuluje pracę mózgu. Organ ten składa się z wielkiej liczby komórek nerwowych, które nic nie znaczą pojedynczo, ale tworząc skomplikowaną sieć powiązań, są w stanie nie tylko kontrolować funkcjonowanie organizmu, ale również wykonywać najbardziej złożone operacje intelektualne. Dążenie do ścisłego naśladowania pracy mózgu przejawia się m.in. w nazewnictwie: modele koneksjonistyczne są nazywane sieciami neuropodobnymi (lub wręcz neuronowymi, neural netw orks). Sieć neuropodobna składa się z neuronów warstwy wejściowej, warstwy wyjściowej oraz warstw pośredniczących, zwanych ukrytymi (hidden layers). Sieć może być ponadto wyposażona w warstwę kontekstową, zawierającą jednostki komunikujące się wyłącznie z warstwami ukrytymi i modyfikujące ich
54
Rozdział 1. Umysł i poznanie
jednostka j
integracja pobudzenia docierającego z poprzedniej warstwy
jednostka i
transformacja zsumowanego pobudzenia na poziom aktywności a;
przekaz poziomu aktywności jednostkom następnej warstwy
Ryc. 1.4. Schemat działania sieci neuropodobnej (za: McLeod, Plunkett, Rolls, 1998, s. 16). W górnej części rysunku widzimy ogólną budowę sieci, w dolnej - działanie jednostki i, należącej do warstwy ukrytej.
działanie. Liczba warstw ukrytych, jak też obecność warstw kontekstowych de cydują o poziomie złożoności sieci. Przetwarzanie informacji polega na odbiorze danych z otoczenia przez warstwę wejściową i przekazywaniu ich dalej poprzez warstwy ukryte aż do „efektorów” sterowanych neuronami warstwy wyjściowej. W prostym przykładzie, przedstawionym na ryc. 1.4, jednostka i, należąca do warstwy pośredniej, może odbierać sygnały od pięciu neuronów warstwy
1.3. Ogólna architektura umysłu
55
wejściowej, wśród których znajduje się jednostka /'. Jednak o poziomie wzbudzenia jednostki i decyduje nie tyle liczba połączeń z neuronami warstwy wejściowej, ile waga tych połączeń. Waga jest jak gdyby mnożnikiem, który modyfikuje siłę połączeń między jednostkami sieci. Tak więc o tym, czy jednostka / z warstwy wejściowej zdoła pobudzić do działania jednostkę i z warstwy ukrytej, decyduje to, czy je d n o stk a sa m a jest aktywna, jak silne jest jej wzbudzenie, a przede wszystkim - jaka jest waga połączenia ij. Oczywiście jednostka i pobiera sygnały od innych jednostek warstwy wejściowej. Jeśli zsumowana wartość zważonych pobudzeń przekroczy wartość progową, jed nostka i uaktywni się, a przez to będzie mogła przekazywać sygnały innym neuronom, przede wszystkim jednostkom warstwy wyjściowej. Skuteczność takich przekazów będzie rzecz jasna zależała od wag odpowiednich połączeń między neuronami. Dodajmy, że niektóre połączenia między neuronami mogą mieć funkcję hamowania aktywności neuronów wyższej warstwy. Zdarzają się też w sieciach połączenia zwrotne, polegające na tym, że neuron pobudza lub hamuje sam siebie. Modelowanie za pomocą sieci neuropodobnych tym się różni od „starej, dobrej sztucznej inteligencji”, że operuje strukturami subsymbolicznymi. Kla syczny program komputerowy napisany jest w języku symboli, które coś znaczą, np. odnoszą się do twierdzeń rachunku zdań albo do operacji przekształcania symboli. Oczywiście komputer „nie rozumie” symboli, trzeba go więc wyposażyć w interpreter, czyli system przekładu symboli na zero-jedynkowy język maszynowy. W każdym razie, dzięki przetwarzaniu symboli, starsze modele ^tucznej inteligencji były w stanie, za pomocą właściwego programu, dowodzić twierdzeń lub sensownie odpowiadać na określony zestaw pytań. Modele sieciowe zbudowane są z jednostek, które same w sobie nie znaczą zupełnie nic, a więc nie mogą być uznane za symbole czegokolwiek. Sieć neuropodobna może czytać symbole, np. komunikaty w języku naturalnym, ale tylko pod warunkiem, że się tego wcześniej nauczy. Zdolność sieci do uczenia się jest dla psychologa najbardziej frapującym aspektem modelowania subsymbolicznego. Nowo utworzona sieć jest niczym tabula rasa: nic „nie wie” i niczego „nie umie”. Wystarczy jednak zadać jej dowolne zadanie, np. zastąpienia liter w napisie PSYCHOLOGIA literami zaj mującymi następne miejsce w alfabecie, aby już po kilku tysiącach prób, zwa nych epokami, otrzymać poprawną odpowiedź: RTZDIPMPHJB. Kilka tysięcy prób to dużo w porównaniu z możliwościami dorosłego, inteligentnego czło wieka, pamiętajmy jednak, że sieć startuje z poziomu „zera absolutnego”. Ponadto dużą liczbę epok można skompensować olbrzymią - w porównaniu z możliwościami człowieka - szybkością działania maszyny. Zresztą celem takich zabiegów nie jest stworzenie sztucznej inteligencji, zdolnej pokonać człowieka, lecz otrzymanie systemu wiernie symulującego ludzkie czynności poznawcze; koniec końców zawsze chodzi o lepsze poznanie tychże czynności. Warunkiem wyuczenia się przez sieć określonych sprawności jest dostarczenie jej informacji zwrotnej. Na przykład przesuwając litery o jedno miejsce w alfabecie, sieć na początku działa zupełnie chaotycznie, przez co w większości otrzymuje negatywną informację zwrotną (źle!). Przypadkiem może wykonać poprawny ruch - wtedy otrzymuje pozytywną informację zwrotną (dobrze!). To wystarczy, aby sieć wyuczyła się bezbłędnego przesyłania informacji z wejścia
30
Kozaziai 1. Umysł i poznanie
do wyjścia, zgodnie z wymaganiami postawionego jej zadania. Badacz nie poucza sieci, jak ma działać, mówi jej tylko, czy wynik jest zgodny z jego ocze kiwaniami. Sieć uczy się sama, wykazując zdolność do samoorganizacji i samo kontroli. Postępując w ten sposób, badacze stworzyli tysiące modeli przetwarzania informacji. Zdecydowana większość to modele bardzo szczegółowe, opisujące np. rozpoznawanie liter lub innych wzorców. Sieci neuropodobne okazały się szczególnie przydatne do modelowania procesów związanych z obróbką danych językowych, a także z nabywaniem języka. Zdolność sieci do uczenia się wy korzystano w badaniach nad rozwojem poznawczym (Karmiloff-Smith, 1992). Wykazano też przydatność modelowania za pomocą sieci neuronowych w badaniach nad deterioracją wybranych funkcji poznawczych. Badacz może np. nauczyć sieć, aby wytwarzała sensowne reakcje werbalne w odpowiedzi na zadaną stymulację, a następnie może taką sieć celowo uszkodzić, usuwając z niej poszczególne jednostki lub warstwy. Zachowanie sieci uszkodzonej symuluje więc zachowanie pacjenta po wylewie lub operacji neurochirurgicznej. Oczy wiście w każdym przypadku modelowania musimy porównać zachowanie sieci z zachowaniem żywych ludzi, np. pacjentów neurochirurgicznych. Jeśli stwier dzimy, że sieć zachowuje się porównywalnie do człowieka (np. generuje ten sam typ błędów), możemy uznać, że dysponujemy trafnym modelem teoretycznym badanej funkcji poznawczej. Ten rodzaj postępowania badawczego prowadzi do gromadzenia wiedzy na temat wybranych czynności poznawczych, na razie zresztą dość wąsko zdefiniowanych. Jednak cała filozofia prowadzenia tych badań skłania do wniosku, że koneksjonizm jest czymś więcej niż tylko szcze gółową metodologią badań kognitywnych. Jest mianowicie ogólną koncepcją działania umysłu ludzkiego, jak też wszelkich innych umysłów (zwierzęcych i sztucznych).
1.4. P odsum ow anie Omówiony w tym rozdziale podział na stabilne reprezentacje i dynamiczne procesy poznawcze określił strukturę całego podręcznika. Część pierwszą poświęcono różnym rodzajom reprezentacji umysłowych, część drugą elementarnym procesom poznawczym (uwaga, kontrola poznawcza, percepcja, pamięć), a część trzecią - złożonym procesom poznawczym (myślenie, roz wiązywanie problemów, podejmowanie decyzji, używanie języka). W dalszych rozdziałach będziemy się wielokrotnie odwoływać do niniejszego prologu, przez co treści w nim zawarte nabiorą, być może, nowego sensu. Z drugiej strony rozmaite kwestie szczegółowe, omawiane w następnych rozdziałach, powinny stać się bardziej zrozumiałe w wyniku odniesienia ich do podstawowych problemów teoretycznych podjętych w rozdz. 1.
R ozd ział
Istota i forma reprezentacji umysłowych
Pojęcie reprezentacji umysłowej
60
Weryfikacja sylogizmów i treści zdań
Reprezentacje a procesy poznawcze Realizm a konstruktywizm
Teoria podwójnego kodowania
80
Słowo i obraz - w zajem ne relacje
61
Rodzaje reprezentacji umysłowych Reprezentacje obrazowe
60 62
64
Wyobraźnia, wyobrażenia i obrazy um y słowe 64
Reprezentacje num eryczne
76
82
86
Pierwotność czy wtórność nietrw ałych re prezentacji umysłowych 89 Hipoteza języka myśli
89
Teoria reprezentacji obrazow ych Kosslyna 65
Teoria pierw otnych reprezentacji w for m ie zbioru sądów Pylyshyna 91
Hipoteza funkcjonalnej ekwiwalencji per cepcji i wyobraźni 66
T eoria m odeli m e n ta ln y c h Jo h n so n -Lairda 95
Rotacje m entalne
Stanowisko eklektyczne w sporze o kod reprezentacji umysłowych 96
Skaning m entalny
67 72
Krytyka stanowiska obrazowego Reprezentacje w erbalne
76
75
Podsum owanie
97
Reprezentacja poznawcza to umysłowy odpowiednik obiektów - realnie istniejących, jak też fikcyjnych łub hipotetycznych. Obiektem reprezentacji może być przedmiot, osoba, kategoria łub relacja. Reprezentacja poznawcza zastępuje swój obiekt w procesach przetwarzania informacji. Reprezentacje nietrwałe (wyobrażenia, etykiety werbalne, sądy, modele umysłowe) powstają doraźnie, np. w celu podjęcia decyzji łub rozwiązania problemu, po czym zanikają. Reprezentacje trwałe, składające się na struktury wiedzy, powstają i zmieniają się w dłuższym cyklu czasowym. Według anegdoty, trzech ślepców napotkało na swej drodze słonia. Jeden dot knął trąby i stwierdził, że trzyma w ręku węża. Drugi zderzył się z nogą słonia i był przekonany, że natknął się na słup. Trzeci złapał za ogon i wydawało mu się, że trzyma w ręku sznur. Jeśli zgodzimy się, że słoń jest realnym, obiektywnie istniejącym obiektem, wypowiedzi trzech ślepców odpowiadają trzem różnym sposobom umysłowej, poznawczej reprezentacji tegoż obiektu. Nasze poznawcze reprezentacje świata przypominają wyobrażenia ślepców na temat słonia. Nie są zasadniczo błędne raczej niekompletne, wybiórcze i ściśle powiązane z osobistym doświadczeniem. Każdy człowiek buduje swój obraz świata, który zazwyczaj jest zasadniczo różny od obrazu zbudowanego przez inne osoby o podobnych doświadczeniach i porównywalnych zdolnościach umysłowych. Psychologia poznawcza bada, w jaki sposób ludzie przedstawiają sobie w umyśle składniki obiektywnego świata. Zajmuje się też problemem, jaki format przyjmują poznawcze repre zentacje rzeczywistości oraz jakie pełnią funkcje.
2.1. Pojęcie reprezentacji umysłowej 2.1 .1 . Reprezentacje a procesy poznawcze Zdaniem Zenona Pylyshyna (1973), głównym zadaniem psychologii poznawczej jest rozwiązanie dwóch problemów. Pierwszy polega na badaniu istoty i cha rakteru naszej wiedzy, drugi zaś - na ustaleniu, w jaki sposób tę wiedzę na bywamy i jak jej używamy. Pierwszy problem sprowadza się do kwestii, dzięki jakim strukturom świat jest odzwierciedlony czy też reprezentowany w naszym umyśle. Istotą drugiego problemu jest opisanie i wyjaśnienie przebiegu procesów przetwarzania informacji. Procesy te z jednej strony polegają na tworzeniu struktur wiedzy, a z drugiej strony - na przekształceniach i operacjach dokonujących się na wiedzy wcześniej nabytej. Dzięki procesom nabywania i przekształcania wiedzy możliwe jest generowanie zachowań adekwatnych do sytuacji, kontekstu, polecenia lub instrukcji. Z dwóch problemów, sformułowanych przez Pylyshyna, pierwszy wydaje się bardziej podstawowy i - z tego właśnie powodu - wymagający rozważenia w pierwszej kolejności. Charakter i przebieg poszczególnych procesów prze twarzania informacji może bowiem wynikać z charakteru i formy reprezentacji umysłowych, a więc z tego, na jakim operują materiale. Na przykład zupełnie
2.1. Pojęcie reprezentacji umysłowej
61
inne prawa przebiegu procesów poznawczych obowiązują wtedy, gdy pamięć robocza przechowuje i przekształca materiał wizualny, a inne wtedy, gdy rzecz dotyczy materiału werbalnego (zob. rozdz. 8.2). Inny przykład: podobieństwo formy umysłowego odzwierciedlenia bodźców prezentowanych w dwóch za daniach jednoczesnych może mieć decydujący wpływ na wzrost kosztów po dzielności uwagi, związanych z interferencją strukturalną (zob. rozdz. 5.4). Zanim więc szczegółowo omówimy przebieg procesów przetwarzania informa cji, takich jak procesy pamięci, percepcji lub uwagi, zatrzymamy się nieco dłużej nad problemem, w jaki sposób człowiek przedstawia sobie w umyśle otaczającą go rzeczywistość. Reprezentacja rozumiana ogólnie to „rzecz coś oznaczająca, zajmująca miejsce czegoś, symbolizująca lub coś przedstawiająca” (Reber, 2000, s. 623). Funkcją reprezentacji poznawczych jest więc przedstawienie w obrębie umysłu wszelkich zdarzeń bodźcowych dostępnych zmysłom. W zależności od orientacji teoretycznej, psychologowie uważają, iż reprezentacje powstają albo w wyniku bezpośredniego odwzorowania („odciśnięcia”) bodźca w umyśle, albo też w pro cesie budowania złożonej konstrukcji umysłowej. Proces tworzenia konstrukcji umysłowej ma polegać na zakodowaniu danych sensorycznych w specjalnym języku, w wyniku czego dane zmysłowe zostają „przetłumaczone” na dane umysłowe. Pierwsze stanowisko określa się mianem realizmu, natomiast drugie nosi nazwę konstruktywizmu.
2.1.2. Realizm a konstruktywizm Historycznie rzecz ujmując, realizm w poglądach na naturę reprezentacji do minował od starożytności aż do czasów średniowiecznych (Kemp, 1998). Jednak i w późniejszych okresach rozwoju nauki, aż do nastania „rewolucji poznawczej”, pogląd ten często uznawano za słuszny. Przekonanie, iż umysłowe reprezentacje obiektów rzeczywistych są strukturami psychicznymi, zachowu jącymi formę oraz szczegóły wyglądu ich realnych pierwowzorów, zostało zapoczątkowane przez Platona. Metafora umysłu jako zbioru „pieczęci odciś niętych w wosku” została później przejęta przez Arystotelesa i dopiero Ockham wskazał na możliwość istnienia reprezentacji umysłowych innego rodzaju, niekoniecznie zachowujących sensoryczną formę rzeczy. Ockham (za: Kemp, 1998) był wprawdzie zdania, iż pierwsze spostrzeżenie fizycznego kształtu przedmiotu jest niezbędne do utworzenia jego reprezentacji umysłowej, jednak sama reprezentacja nie musi przejawiać właściwości obiektu, do którego się odnosi. Reprezentacja może być bowiem przywołana również wtedy, gdy obiekt nie jest dany procesom percepcji, a więc gdy pozostaje tylko wyobrażony, a nie spostrzeżony. Nic się wtedy nie „odciska” w umyśle, a mimo to powstaje poznawcze odzwierciedlenie wyobrażonego obiektu. Współcześnie psychologowie poznawczy stoją raczej na stanowisku konstruktywistycznym (Bruner, 1978). Wynika to z olbrzymiej i ciągle narastającej liczby danych empirycznych pokazujących, że ten sam obiekt może być umy słowo reprezentowany na wiele różnych sposobów, w zależności od nastawie nia, kontekstu, wcześniej nabytej wiedzy, oczekiwania, stanu motywacyjnego, nastroju lub emocji, wreszcie trwałych wymiarów intelektu i osobowości. Jeśli to
u Ci
n o z a z ia i c . is to ta i iurm a re p re z e n ta c ji u m y s io w y tn
samo może być widziane, rozumiane, zapamiętywane i interpretowane na wiele różnych sposobów, to znaczy, że obiekty nie „odciskają się” w żadnym umysło wym „wosku”; przeciwnie, każdy z nas samodzielnie i aktywnie konstruuje treść swoich przedstawień umysłowych, choć może nie zdawać sobie sprawy z samego faktu istnienia takiej aktywności. Współczesna psychologia poznawcza, wraz z naukami pokrewnymi, nie może istnieć bez pojęcia reprezentacji umysłowych, choć nie brakuje i takich, którzy twierdzą, iż reprezentacje umysłowe nie są w ogóle przydatne w procesach przetwarzania informacji (Gibson, 1979; zob. rozdz. 7.4). Z faktu, iż coś nie jest przydatne, wynika, że przypuszczalnie nie istnieje, ponieważ zakładamy, że funkcjonowanie umysłu podlega zasadzie ekonomii. Wydaje się, że spór o istnienie reprezentacji poznawczych toczy się na dwóch płaszczyznach: teoretycznej i metodologicznej. Na płaszczyźnie teore tycznej rozważa się kwestię, czy rzeczywiście istnieją jakieś poznawcze odpo wiedniki świata w umyśle. Natomiast na płaszczyźnie metodologicznej chodzi o pytanie, czy pojęcie reprezentacji poznawczej jest niezbędne do prawidłowego opisu i wyjaśnienia funkcjonowania umysłu. Ktoś może być przekonany, że reprezentacje realnie istnieją, ale kierując się zasadą, aby nie mnożyć bytów ponad konieczną potrzebę, próbuje w uprawianiu psychologii obejść się bez tego terminu. Ktoś inny może wątpić w realne istnienie reprezentacji poznawczych, ale posługuje się tym konstruktem, budując teoretyczne modele badanych zjawisk. Zresztą spór o istnienie reprezentacji może mieć bardzo proste roz strzygnięcie, jeśli uzna się, że niektóre czynności poznawcze wymagają przed stawień umysłowych, a inne nie. Zgromadzono na przykład wiele danych su gerujących, że niektóre procesy spostrzegania mogą polegać na bezpośrednim kontakcie umysłu z obiektem (Gibson, 1979). Nie zmienia to faktu, że inne przypadki percepcji, występujące w sytuacjach bardziej złożonych lub wie loznacznych, bez żadnej wątpliwości dowodzą istnienia indywidualnych, aktywnie i samodzielnie skonstruowanych przedstawień umysłowych. Jednak samo uznanie istnienia reprezentacji, wraz z uznaniem metodolo gicznej niezbędności tego konstruktu teoretycznego, nie oznacza jeszcze zgody co do sposobu ich istnienia i funkcjonowania. Toczący się na gruncie psy chologii poznawczej spór o reprezentacje umysłowe sprowadza się więc do dwóch kwestii: sposobu kodowania danych zmysłowych (języka reprezentacji) oraz sposobu organizacji danych umysłowych (struktury reprezentacji). Rozwiązanie tych kwestii zależy od bardziej podstawowego pytania: „W jakim stopniu umysłowe reprezentacje otaczających nas obiektów mogą odbiegać swoją formą od sensorycznych właściwości tychże obiektów?”
2.1 .3 . Rodzaje reprezentacji um ysłowych W świetle poszczególnych stanowisk teoretycznych reprezentacje umysłowe mogą przyjmować przeróżne formy. Na przykład Allan Paivio (1986) zalicza do reprezentacji poznawczych m.in. obrazy umysłowe, ślady pamięciowe, słowa (elementy języka), sądy, pojęcia (reprezentacje pojęciowe: prototypy, listy cech) oraz schematy (skrypty, ramy, procedury). Reber (2000) za najważniejsze rodzaje reprezentacji umysłowych uważa obrazy umysłowe, słowa (elementy
2.1. Pojęcie reprezentacji umysłowej
63
języka) i idee (abstrakcje). Wreszcie Eysenck i Keane (1990), w najbardziej chyba przejrzystym, ale też i najbardziej restrykcyjnym podziale reprezentacji umysłowych, wyróżniają reprezentacje analogowe (obrazy umysłowe, modele mentalne) oraz reprezentacje w formie zbioru sądów czy też twierdzeń (propositions). Obrazy umysłowe są rodzajem reprezentacji umysłowej najbar dziej zbliżonym do rzeczywistej formy przedstawianych obiektów, natomiast abstrakcyjne pojęcia są od tej formy bardzo odległe. Na przykład wyobrażenie domu nosi pewne cechy prawdziwego domu nie tylko ze względu na obecność typowych szczegółów (np. okna, dach), ale przede wszystkim ze względu na odpowiedniość relacji między tymi szczegółami (np. dach jest u góry nie tylko w prawdziwym domu, ale też w jego wyobrażeniu). Natom iast pojęcie „instytucja finansowa”, choć zawiera w sobie istotne elementy obiektu, nie za chowuje wobec niego żadnej odpowiedniości fizycznej. Pojęcie abstrakcyjne może być pełne, ścisłe i bogate w treść, ale w niczym nie przypomina repre zentowanego obiektu, który zresztą w takim wypadku nie jest obiektem jed nostkowym, lecz szeroką i ogólną kategorią nadrzędną. Niektóre reprezentacje pojęciowe nie mają w ogóle konkretnych, sensorycznych odpowiedników w świecie rzeczywistym (Paivio, 1986). Ze względu na różnice w formie odzwierciedlenia rzeczywistości, reprezentacje umysłowe różnią się także swoją trwałością. Na przykład w toku rozwiązywania problemu w umyśle tworzone są struktury przedtwórcze (Smith, Ward, Finkę, 1995) czy też struktury próbne (Nęcka, 1987), którymi mogą być np. obrazy umysłowe lub utworzone na próbę pojęcia. Są to struktury ułat wiające twórcze rozwiązanie problemu dzięki przybliżeniu nas do idealnego, na razie nieosiągalnego stanu docelowego (Newell, Simon, 1972). Te nietrwałe reprezentacje, tworzone ad hoc w procesie rozwiązywania problemu, mogą zostać natychmiast zastąpione innymi reprezentacjami, bardziej adekwatnymi lub lepiej przybliżającymi nas do celu, czyli rozwiązania. Natomiast reprezenta cja pojęciowa matki z reguły należy do najmniej podatnych na jakiekolwiek zmiany. Kształtuje się bardzo wcześnie w życiu człowieka i zazwyczaj odpo wiada pierwszemu napotkanemu egzemplarzowi tej kategorii (Reed, 1972). Taką formę reprezentacji można uznać za względnie trwałą i w niewielkim stopniu podatną na modyfikacje. W tym rozdziale rozważymy problem, w jakim języku kodowania mogą być reprezentowane dane zmysłowe odbierane przez jednostkę. Omówimy koncep cje reprezentacji w formie konkretnych obrazów umysłowych oraz stów (elementów języka), jak też w formie bardziej abstrakcyjnych sądów lub modeli umysłowych. Przedmiotem zainteresowania będą zatem nietrwale reprezentacje poznawcze, powstające w umyśle, np. w procesie rozwiązywania problemów. Rozważymy również problem, czy konkretne reprezentacje analogowe są wtórne wobec trwałych, amodalnych zbiorów twierdzeń o relacjach między obiektami. Problem struktury i funkcjonowania trwałych reprezentacji umysłowych, takich jak pojęcia, schematy, skrypty i ramy, zostanie rozważony w rozdz. 3.
64
Rozdział 2. Istota i forma reprezentacji umysłowych
2.2. Reprezentacje obrazowe 2.2.1. Wyobraźnia, wyobrażenia i obrazy um ysłowe Często zamiast pojęcia „reprezentacja umysłowa” stosowany bywa zamiennie termin „wyobrażenie”, choć wyobrażenie to zaledwie jeden z wielu typów reprezentacji. Wyobrażeniem nazywamy nietrwałą strukturę poznawczą, nieco przypominającą spostrzeżenie, choć w przeciwieństwie do percepcji występują cą pod nieobecność wyobrażonego obiektu. Wyobraźnia jest zdolnością umysłu ludzkiego do tworzenia wyobrażeń, zdolnością ściśle związaną ze spostrzega niem. Nie znaczy to, że wyobrażenie musi koniecznie przyjmować formę obrazową; na temat formy reprezentacji wyobrażeniowych toczy się w psycho logii ostry spór teoretyczny. W każdym razie wyobrażeniem nazywamy umysło we przedstawienie przedmiotu, który przestał działać na nasze zmysły, co podkreśla Ulric Neisser (1967), Tomasz Maruszewski (1997) i wielu innych autorów. Według Neissera (1972, s. 245), „człowiek tworzy wyobrażenia (is imaging), kiedy wykorzystuje te same procesy przetwarzania informacji, które biorą udział w postrzeganiu, ale w sytuacji, gdy bodźce normalnie wzbudzające takie spostrzeżenie nie są obecne”. W innym miejscu Neisser traktuje jednak wyobraźnię jako specyficzny stan uwagi, aby podkreślić, że proces wyobrażania sobie rzeczywistych obiektów jest związany z aktywną, „odgórną” selekcją informacji (zob. rozdz. 5.2.1), w przeciwieństwie do pasywnej „oddolnej” ich percepcji (zob. rozdz. 7.2). Wypada jednak zauważyć, że procesy spostrzegania są w dużej mierze również „odgórne”, tj. zależne od wiedzy i aktywności podmiotu. Żeby uniknąć nieporozumień i pułapek terminologicznych, ustalmy, co następuje. Wyobrażenie jest jedną z postaci poznawczej reprezentacji obiektu w umyśle. Charakteryzuje się brakiem trwałości oraz ścisłym powiązaniem z percepcją. Wyobraźnia to zdolność umysłu do generowania takich właśnie wyobrażeniowych reprezentacji świata. Tradycyjnie wyróżniano wyobraźnię odtwórczą i twórczą. Pierwsza miała być odpowiedzialna za tworzenie wyobra żeń obiektów wcześniej spostrzeganych i dobrze znanych, np. wyobrażenia konia, którego w danym momencie nie widzimy. Druga miała tworzyć kon strukcje fantazyjne lub „niemożliwe”, np. wyobrażenie Pegaza (pół koń, pół człowiek) lub syreny (pół ryba, pół kobieta). Obecnie oba rodzaje konstrukcji umysłowych uznaje się za twory tej samej zdolności do generowania wyobrażeń, natomiast wyobraźnią twórczą nazywa się inną zdolność, umożliwiającą tworzenie nie tylko nowych wyobrażeń, ale też nowych pojęć i innych reprezentacji poznawczych. Trzecie ważne pojęcie to obraz umysłowy. Tym terminem określamy szczególną formę poznawczej reprezentacji świata w umyśle, cechującą się analogowym charakterem i ścisłą odpowiedniością reprezentacji w stosunku do obiektu. Na przykład obraz umysłowy konia to jak gdyby wewnętrzna „fotografia” tego obiektu w umyśle. Wielu badaczy odrzuca twierdzenie, jakoby każdy z nas tworzył w umyśle jakieś „fotografie”. Istnienie wyobrażeń tłumaczy się wówczas inaczej, np. tym, że umysł generuje wyobra żenie z głębszych struktur wiedzy, zapisanych nie w postaci obrazów, lecz w języku pojęć lub twierdzeń; będzie o tym mowa w dalszych częściach tego rozdziału. Obraz umysłowy jest więc konstruktem teoretycznym, używanym
2.2. Reprezentacje obrazowe
65
w celu wyjaśnienia, jak jest możliwe tworzenie przez umysł wyobrażeniowych reprezentacji świata, natomiast wyobrażenie to jeden z rodzajów takiej repre zentacji, którego istnienie nie jest w zasadzie przedmiotem sporu teoretycznego. Termin „wyobrażenie” wprowadził do języka nauki Arystoteles, natomiast pierwsze psychologiczne badania nad wyobrażeniami podjął w XIX w. Francis Galton (1883). Poprosił on osoby badane o wyobrażenie sobie stołu zastawionego śniadaniem, a następnie o wypełnienie kwestionariusza, którego wyniki pozwalały na stwierdzenie, czy wyobrażenia poszczególnych osób różnią się jakościowo i ilościowo. Okazało się, że reprezentacje umysłowe przywoły wane przez badanych były bardzo zróżnicowane. Wystąpiły także wyraźne różnice między wyobrażeniami tej samej osoby testowanej w różnym czasie. Przewidywał to już zresztą wcześniej Ockham (za: Kemp, 1998), podważając tezę o dokładnym i zawsze identycznym odwzorowaniu obiektu (tu: śniadania) w formie reprezentacji umysłowej (tu: wyobrażenia). Co więcej, część osób badanych albo nie potrafiła sobie wyobrazić niczego, albo też ich wyobrażenia były fantazyjne i wyraźnie odbiegały od ich własnego, codziennego doświad czenia. Wyniki uzyskane przez Galtona zdecydowanie podważyły więc stanowisko realizmu w sporze o reprezentacje umysłowe.
2.2.2. Teoria reprezentacji obrazowych Kosslyna Według Stephena Kosslyna (1975, 1981, 1983), wyobrażenia składają się z dwóch komponentów: powierzchniowego (surface) i głębokiego (deep). Składnik powierzchniowy zawiera to, co jest dostępne w doświadczeniu wewnętrznym, natomiast składnik głęboki obejmuje to, co jest zapisane w pamięci długotrwałej. Powierzchniowe elementy wyobrażenia powstają w wy niku działania elementów głębokich. Świadome i nietrwałe doświadczenie wyobrażenia dotyczy jedynie komponentu powierzchniowego, zaś właściwe wyobrażenie ma charakter trwale przechowywanego, ale niedostępnego świadomemu doświadczeniu obrazu. Obraz ten koduje informację w sposób przestrzenny i analogowy. Wszystkie obiekty składające się na konkretne wyobrażenie mają więc swoją wielkość i znajdują się w pewnym położeniu oraz w pewnej odległości względem innych obiektów. Na poszczególnych elementach wyobrażenia (obiektach), jak i na całym wyobrażeniu można dokonać takich samych operacji, jakich dokonuje się na prawdziwych obrazach. Dotyczy to np. operacji przeglądania (inspekcji obrazu), powiększania czy rotowania. Te właściwości przestrzenno-operacyjne są dane i realizowane bezpośrednio w wyobrażeniu i nie mają charakteru symbolicznego. W sposób symboliczny może być natomiast przedstawiana głęboka reprezentacja umysłowa, ale z prac Kosslyna niewiele można wyczytać na temat jej formy. Problem głębokich reprezentacji umysłowych, za pomocą których tworzą się odpowiadające im powierzchniowe obrazy mentalne, zostanie omówiony w rozdz. 3. Rozważania Kosslyna, dotyczące powierzchniowego komponentu wyob rażenia, prowadzą nas w samo centrum sporu o naturę wyobrażeń. Część badaczy (Kosslyn, 1981; Paivio, 1986; Cooper, Shepard, 1973) argumentuje, iż wyobrażenia wzrokowe są kodowane w postaci reprezentacji posiadających zarówno własności przestrzenne, jak i właściwiści specyficzne dla poszczegól
uu
nozaziai
i stu ta i iorma reprezentacji umysiowycn
nych modalności zmysłowych. Na przykład wyobrażenie konia zawiera relacje przestrzenne identyczne jak w przypadku prawdziwego konia: grzywa jest na łbie, a nie przy ogonie itd. Ponadto, wyobrażając sobie konia, odtwarzamy część doznań sensorycznych związanych z prawdziwym koniem; chodzi o zmysł wzroku, słuchu (np. tętent kopyt, rżenie), zapachu itd. Pogląd ten przyjął się w literaturze pod nazwą stanowiska obrazowego, w przeciwieństwie do stanowiska nazywanego twierdzeniowym (propozycjonalnym). Zwolennicy stanowiska propozycjonalnego (np. Anderson, 1997; Pylyshyn, 1973) wyrażają przekonanie, iż dane zmysłowe są kodowane w postaci abstrakcyjnych zbiorów twierdzeń czy też sądów, podobnie zresztą jak informacje werbalne. Ich zdaniem istnienie kodu w postaci abstrakcyjnego zbioru sądów pozwala wyjaśnić, jak to możliwe, iż ludzie potrafią opisywać obrazy słowami bądź tworzyć obrazy w celu ilustrowania treści słownych (Pylyshyn, 1973). Zwolennicy stanowiska ob razowego uważają natomiast, że informacjom wizualnym i werbalnym przy sługują odrębne kody (Paivio, 1976). Oczywiście, z faktu istnienia dwóch wyszczególnionych stanowisk nie wynika, iż ktokolwiek kwestionuje istnienie fenomenu, jakim jest wyobraźnia wzrokowa. W szczególności nikt nie wątpi, że ludzie subiektywnie doświadczają wyobrażeń wzrokowych, słuchowych, dotykowych, smakowych, węchowych lub dotyczących zmysłu równowagi. Wątpliwości dotyczą jedynie tego, na ile fenomenologiczne doświadczenie wyobrażania sobie obiektów odzwierciedla prawdziwą naturę wyobrażeń. Zdaniem propozycjonalistów, prawdziwa natura wyobrażeń zawiera się w abstrakcyjnym zapisie w postaci sądów (np. dach jest zielony, na lewo od drzewa znajduje się kamień). Natomiast zdaniem przed stawicieli stanowiska obrazowego prawdziwa natura wyobrażeń sprowadza się do tego, że są one zapisane w postaci analogowych obrazów umysłowych o dużym stopniu przestrzennej odpowiedniości w stosunku do „oryginału”.
2.2 .3 . Hipoteza funkcjonalnej ekw iw alencji percepcji i wyobraźni Istnieje wiele danych świadczących o tym, że wyobrażenia rzeczywiście mogą mieć formę obrazową oraz że wyobraźnia i percepcja prowadzą do podobnych skutków poznawczych. Dane te pochodzą m.in. z badań, w których uczestnicy mogli wykonywać to samo zadanie w dwóch warunkach eksperymentalnych. W pierwszym osoby badane mogły formułować sądy o obiekcie, opierając się na spostrzeganiu (zazwyczaj percepcji wzrokowej), a więc na danych zmysłowych, w drugim zaś - jedynie na swoich wyobrażeniach, a więc na poznawczych reprezentacjach obiektu. Postępując zgodnie z tą procedurą, badacze starali się rozstrzygnąć spór o naturę wyobrażeń. Argumentów na rzecz tezy o funkcjo nalnej ekwiwalencji wyobraźni i percepcji dostarczają badania prowadzone zwłaszcza przez Sheparda i jego współpracowników. Shepard i Chipman (1970) wybrali z mapy Ameryki Północnej 15 stanów USA. Niektóre były do siebie podobne pod względem kształtu i powierzchni, inne zdecydowanie różniły się między sobą. Następnie badacze poprosili uczest ników o ocenę podobieństwa pod względem kształtu i powierzchni 105 par wy branych regionów. Osoby badane w pierwszym warunku mogły przez cały czas korzystać z mapy. W warunku drugim pytania zadawano dopiero wtedy, gdy
2.2. Reprezentacje obrazowe
67
mapę usunięto już z pola widzenia. Zatem w pierwszym warunku badani mogli korzystać z percepcji, podczas gdy w warunku drugim umożliwiono im korzysta nie tylko z wyobrażeń. Okazało się, że poprawność w warunku percepcyjnym była wysoko i pozytywnie skorelowana z poprawnością w warunku wyobraże niowym. Tak więc osoby dobrze korzystające z możliwości, jakie daje percepcja, skutecznie radzą sobie wtedy, gdy mogą posłużyć się tylko wyobraźnią. W kolejnym eksperymencie na wstępie poproszono uczestników o ocenę podobieństwa cyfr arabskich, umieszczonych na tablicy w zasięgu wzroku (Shepard, 1975). Następnie tablicę usunięto, polecając osobom badanym wyobrazić sobie cyfry i ponownie określić stopień ich podobieństwa. Wreszcie poproszono uczestników badania o przedstawienie sobie w umyśle każdej z tych cyfr w postaci odpowiedniej liczby kropek, co wymagało dokonania transformacji umysłowej. Na przykład cyfrę 3 należało przekształcić w trzy kropki, a cyfrę 8 - w osiem kropek. Shepard stwierdził, że choć przed transformacją cyfry 3 i 8 były przez uczestników eksperymentu często oceniane jako podobne (zarówno w warunku spostrzeże niowym, jak i wyobrażeniowym), to po dokonaniu wymaganej przez niego trans formacji cyfra 3 (reprezentowana przez trzy kropki) i cyfra 8 (reprezentowana przez osiem kropek) były spostrzegane jako różne. Po transformacji podobne wydawały się natomiast cyfry 4 i 6, a także cyfry 8 i 6, ze względu na podobieństwo graficzne przedstawienia tych cyfr w postaci zbioru kropek ulokowanych w dwóch rzędach. Wyniki tych badań dostarczają bardzo silnych argumentów na rzecz tezy o funkcjonalnej ekwiwalencji spostrzegania i wyobrażania. Według Kosslyna (1981), wyniki prezentowanych powyżej badań potwier dzają słuszność jego koncepcji. Kosslyn argumentuje, że jeśli w rozwiązywaniu zadań percepcja (dane zmysłowe) i wyobraźnia (dane umysłowe) prowadzą do podobnych wyników i podobnych błędów, to procesy te są funkcjonalnie ekwiwalentne. Jeśli zaś są funkcjonalnie ekwiwalentne, to - być może - również mają podobną formę organizacji i zapisu w umyśle. Pierwszy pogląd jest centralnym elementem funkcjonalnych teorii wyobraźni (zob. np. Cooper, Shepard, 1973; przegląd: Finkę, 1985), natomiast drugi - koncepcji struktural nych (zob. np. Kosslyn, 1981; przegląd: Finkę, 1985). Jednak przejście od empirycznie potwierdzonych tez teorii funkcjonalnych do wysoce hipotetycz nych stwierdzeń teorii strukturalnych należy przyjmować bardzo ostrożnie, podobnie jak inne twierdzenia psychologiczne oparte na wyjaśnieniach funkcjonalnych (Edelman, 1998). Sukces egzaminacyjny można osiągnąć albo w wyniku samodzielnego uczenia się, albo ściągania od kolegi. W obu przypadkach rezultat testu jest taki sam, ale sposób jego osiągnięcia zupełnie inny. Różne argumenty empiryczne, mogące świadczyć na korzyść koncepcji Kosslyna, pochodzą z badań w zakresie dwóch odmiennych paradygmatów badawczych: rotacji mentalnych (paradygmat 2.1) oraz skaningu umysłowego (paradygmat 2.2). Za autora pierwszego z nich uznaje się Rogera Sheparda, zaś pomysłodawcą drugiego jest sam Kosslyn.
2.2.4. Rotacje m entalne Cooper i Shepard (1973) prezentowali osobom badanym na ekranie monitora litery (G, J lub R) albo cyfry (2, 5 lub 7) nachylone pod różnymi kątami
Do
Rozdział
Istota i torma reprezentacji umysłowych
względem ich naturalnego położenia (od 0° do 300°; co 45° lub co 60°). Dodat kowo symbole te mogły być prezentowane prawidłowo albo w odbiciu lustrza nym. Zadaniem osób badanych było stwierdzenie, czy symbol jest wyświetlony prawidłowo, czy też w lustrzanym odbiciu. Wyniki tego eksperymentu potwier dziły hipotezę funkcjonalnej ekwiwalencji percepcji i wyobraźni - badani przekształcali obiekty w wyobraźni tak samo, jak by to robili, gdyby pozwolono im korzystać ze spostrzegania lub czynności manualnych (Shepard, 1984). Czas decyzji okazał się bowiem rosnącą funkcją kąta rotacji, przyjmującego wartość od 0° do 180°. Dodatkowym argumentem było także stwierdzenie, że badani dokonywali mentalnych rotacji symboli zawsze w kierunku umożliwiającym jak najszybsze przekształcenie ich do pozycji naturalnej. W ten sposób litera intencjonalnie obrócona przez badacza o 300° była mentalnie rotowana przez badanych nie o 300° w kierunku zgodnym z ruchem wskazówek zegara, ale o 60° w kierunku przeciwnym. Wykazano to na podstawie porównania czasów decyzji - w przypadku rotacji o 60° i 300° czasy te były porównywalne. Jeśli jednak osoby badane uprzedzono, że figura, którą za moment zobaczą, jest zrotowana o dany kąt, to obserwowana zależność zanikała, a czas decyzji był stały (ok. 400 ms) i niezależny od kąta rotacji (paradygmat 2.1). Paradygmat 2.1
t: Rotacja mentalna : Paradygmat rotacji mentalnej polega na prezentowaniu osobie badanej dwóch | bodźców, np. liter, cyfr iub figur geometrycznych, wzajemnie zrotowanych pod l pewnym kątem. W każdej parze bodźce mogą być tylko zrotowane, albo zrotowane i dodatkowo przekształcone, np. na zasadzie lustrzanego odbicia. Zadaniem uczestnika eksperymentu jest udzielenie odpowiedzi na pytanie, czy dwa prezentowane bodźce są identyczne. Jeśli są tylko zrotowane, osoba badana ma i odpowiedzieć TAK (identyczne), ale jeśli bodźce są dodatkowo przekształcone, | prawidłowa odpowiedź brzmi NIE (różne). Zmienną niezależną jest kąt rotacji, | a zmienną zależną czas udzielania odpowiedzi. W niektórych eksperymentach zamiast pary bodźców prezentuje się w każdej próbie tylko jeden element, np. literę ) lub cyfrę, oczywiście odpowiednio zrotowaną lub zrotowaną i dodatkowo 1 l zniekształconą. Do tej pory w badaniach wykorzystywano jako bodźce litery i cyfry (Cooper, Shepard, 1973) oraz złożone figury dwu- i trzywymiarowe (Shepard, Metzler, 1971). Zadaniem osób badanych była albo identyfikacja symboli (np. Corballis i in., 1978), albo porównanie symboli parami (np. Joliceour i in., 1985), albo podjęcie decyzji, czy symbol jest napisany prawidłowo, czy może w odbiciu lustrzanym (Koriat, Norman, Kimchi, 1991). Rotacje dotyczyły płaszczyzny (np. Cooper, Shepard, 1973) lub przestrzeni (np. Bauer, Joliceour, 1995). W niemal wszystkich badaniach stwierdzono efekt zależności czasu ? podejmowania decyzji od wielkości kąta rotacji. Zależność ta ma charakter funkcji silnie rosnącej w przedziale kątowym od 0° do 180°, a funkcji silnie malejącej w przedziale kątowym od 180° do 360°. Efekt rotacji mentalnych znika na skutek uprzedzenia osób badanych o wielkości kąta rotacji. Podstawowe prawo rotacji mentalnej oraz typowe bodźce użyte w eksperymencie przedstawiono na ryc. 2.1.
2.2. Reprezentacje obrazowe
69
1100
1000
900 w
E 800
700 c
■O
600
500
uprzednia informacja o wielkości kąta rotacji
400
0 F
60
120
180
>7
ń
240
300
360
F
orientacja przestrzenna bodźca (rotacja zgodna z ruchem wskazówek zegara)
Ryc. 2.1. Wyniki eksperymentu Coopera i Sheparda (1971).
Paradygmat rotacji mentalnej był powszechnie wykorzystywany w badaniach nad wyobraźnią, wyobrażeniami i zdolnościami przestrzennymi. Nadaje się do badania różnic indywidualnych w zakresie wyobraźni przestrzennej, zwłaszcza w wersji, w której trzeba porównywać złożone figury trójwymiarowe w rzucie na płaszczyznę. Eksperyment tego rodzaju może też służyć jako test do badania indywidualnego tempa rotacji, na podstawie którego ocenia się ogólne tempo przetwarzania informacji przez człowieka. Wskaźnikiem tempa umysłowego jest wówczas stromizna krzywej, przedstawiona na ryc. 2.1. Osoby cechujące się szybkim tempem przetwarzania informacji uzyskują stosunkowo słabą stromiznę, podczas gdy w przypadku osób ogólnie spowolniałych przyrost czasu w funkcji kąta rotacji jest bardzo duży. Rotacje mentalne nadają się też do prowadzenia badań na pograniczu psychologii poznawczej i klinicznej. Interesujące wyniki z użyciem tego paradyg matu uzyskali Maruszewski i Ścigała (1998). Autorzy wykazali, że aleksytymicy źle sobie radzą z mentalną rotacją obiektów, gdy są nimi bodźce afektywne, np. zdjęcia twarzy ludzkich wyrażające emocje.
Podobne zależności ujawniono wtedy, gdy w eksperymentach zastosowano bodźce trójwymiarowe. W badaniu Sheparda i Metzler (1971) prezentowano uczestnikom na monitorze komputera dwie rotowane względem siebie figury
/u
nozaziai
istota i torma reprezentacji umysiowycn
trójwymiarowe (a właściwie ich rzuty na płaszczyznę). Następnie proszono uczestników o decyzję, czy prezentowane obiekty są identyczne, a jedynie zrotowane względem siebie, czy też różne, uzyskane w wyniku lustrzanego odbicia jednej z nich. Aby rozwiązać to zadanie, osoby badane musiały po nownie dokonać „w umyśle” rotacji prezentowanych im figur, tym razem wy konując przekształcenia w wyobrażonej przestrzeni. Uzyskano wyniki podobne do wcześniejszych - czas decyzji wzrastał wraz z wielkością kąta rotacji. Płaszczyzna rotacji nie miała natomiast żadnego znaczenia dla wielkości stwier dzanego efektu rotacji - czasy decyzji w przypadku rotacji w płaszczyźnie ry sunku oraz w płaszczyźnie prostopadłej do płaszczyzny rysunku były porów nywalne przy analogicznej wielkości koniecznego kąta rotacji mentalnej. Wyniki uzyskane przez Sheparda i Metzler potwierdził Jolicoeur wraz z współpra cownikami (Jolicoeur i in., 1985; Bauer, Jolicoeur, 1996). Badacze ci porównali ponadto kształt funkcji zależności czasu decyzji od wielkości kąta rotacji w przypadku figur dwu- i trójwymiarowych (ryc. 2.2). Funkcja ta okazała się znacznie silniej rosnąca w przypadku rotacji figur trójwymiarowych niż figur dwuwymiarowych. Interesujące wyniki dotyczące efektu rotacji mentalnej uzyskali także Corballis i współpracownicy (1978). W swoich trzech eksperymentach wyko rzystali oni ten sam zestaw symboli, jakiego wcześniej użyli Cooper i Shepard (1973). Jednak zamiast prosić uczestników o stwierdzenie, czy litery lub cyfry zostały „napisane” prawidłowo, czy też w lustrzanym odbiciu, wymagali iden tyfikacji prezentowanych obiektów, czyli po prostu nazywania bodźców. Okazało się, że identyfikacja symboli prezentowanych w lustrzanym odbiciu zabierała badanym więcej czasu niż identyfikacja symboli napisanych prawi dłowo, i to przy każdej wielkości kąta rotacji obiektów. Różnica ta wynosiła dla każdego kąta rotacji od 25 do 30 ms i była względnie stała, ale dopiero od drugiego bloku zadań, gdy osoby badane nabyły nieco wprawy w wykonywaniu testu rotacji. Corballis i współpracownicy (1978) stwierdzili, że w przypadku identyfikacji obiektów prezentowanych w lustrzanym odbiciu badani dokonują dodatkowego przekształcenia, polegającego na lustrzanym odbijaniu obiektu, tak by powrócił on w ich wyobraźni do naturalnej formy. Dzieje się to przed właściwą rotacją kątową lub też po jej wykonaniu. Badacze ci potwierdzili również wyniki uzyskane przez Coopera i Sheparda (1973) - czas identyfikacji obiektów okazał się bowiem liniową funkcją kąta rotacji, przyjmującego wartości od 0° do 180°, zaś mentalna rotacja dokonywała się zawsze w kierunku, któ ry zapewniał pokonanie mniejszej odległości kątowej z dwóch teoretycznie możliwych wartości. Można zatem wskazać na dwa argumenty przemawiające za tym, że nietrwałe reprezentacje wyobrażeniowe mają charakter obrazowy. Głównym argumentem pozostaje wielokrotnie stwierdzana liniowa zależność między ką tem rotacji obiektu a czasem potrzebnym na podjęcie w odniesieniu do niego dowolnej decyzji. Warto podkreślić, że ten liniowy związek wykazywano nieza leżnie od typu zadania (identyfikacja, porównanie, decyzja co do pisowni symbolu), typu rotowanego symbolu (litery, cyfry, symbole wymyślone), jego wymiaru (bodźce dwu- lub trójwymiarowe), a także niezależnie od formy rotacji (płaszczyzna, przestrzeń). Zwolennicy stanowiska obrazowego w sporze o na turę reprezentacji umysłowych interpretują powyższe fakty w ten sposób, iż
2.2. Reprezentacje obrazowe
71
Ryc. 2.2. Dwu* i trójwymiarowe figury używane w badaniach nad rotacją mentalną (za: Bauer, Jolicoeur, 1996). Górna część pokazuje figury o rosnącym stopniu złożoności (dwa, trzy lub cztery zagięcia, odpowiednio w kolumnie 1, 2 i 3). Dolna część pokazuje dwie identyczne pary identycznych bodźców (wymagana reakcja: TAKIE SAME). Bodźce te są dwuwymiarowe (rząd górny) lub trójwymiarowe (rząd dolny), zrotowane względem siebie o 60°.
ludzie dokonują w swojej wyobraźni dokładnie takich samych przekształceń, jakich dokonywaliby, gdyby pozwolono im kontrolować rotację obiektów za pomocą zmysłu wzroku czy też wtedy, gdyby pozwolono im po prostu ma nipulować prawdziwymi obiektami w przestrzeni. Świadczą o tym również wyniki badań, w których uczestnicy pracowali w dwóch różnych warunkach: percepcji i wyobraźni, a rezultaty uzyskane w obu warunkach niewiele się różniły. Jest to drugi argument na rzecz tezy, że wyobrażeniowe reprezentacje obiektów mają charakter obrazów, zaś przekształcenia, jakim podlegają, niczym się nie różnią od przekształceń, jakimi można poddać obiekty realne lub symulowane komputerowo.
/ fi
Hozaziat c. istota i lorma reprezentacji umysiowycn
2.2 .5 . Skaning m entalny W jednych z pierwszych eksperymentów nad obrazami umysłowymi Kosslyn (1975) podał uczestnikom sześć różnych wymiarów prostokąta prosząc ich, aby wyobrazili sobie prostokąt o zadanej wielkości, a następnie - aby w obrębie wyobrażonego prostokąta dodatkowo wyobrazili, sobie zwierzę, np. tygrysa. Wreszcie zadawał pytania dotyczące cech wyobrażanego obiektu, np.: „Czy tygrys jest cętkowany?” Czas udzielenia prawidłowej odpowiedzi okazał się malejącą funkcją wielkości wyobrażonego prostokąta, a tym samym - wielkości wyobrażonego zwierzęcia. Im większy był wyobrażony obiekt, tym mniej czasu trzeba było na udzielenie odpowiedzi. Wielkość wyobrażonego obiektu była oczywiście wynikiem manipulacji eksperymentalnej, zależała bowiem od narzuconych przez instrukcję parametrów wyobrażonego w pierwszej kolejności prostokąta. Liniowa zależność pomiędzy wielkością wyobrażenia a czasem udzielania odpowiedzi dotyczyła zarówno pytań, w których oczekiwano odpowiedzi pozytywnej (obiekt charakteryzował się cechą), jak i pytań, w których poprawna była odpowiedź negatywna (obiekt nie posiadał cechy). Osoby badane potrzebowały także więcej czasu na udzielenie odpowiedzi do tyczących mniejszych elementów danego obiektu (np.: „Czy tygrys ma uszy?”) niż większych (np.: „Czy tygrys ma ogon?”). Czas decyzji okazał się więc po nownie zależny od wielkości reprezentowanych obiektów, które tym razem były częścią pierwotnego wyobrażenia. W kolejnych badaniach Kosslyn (1983) prosił uczestników o wyobrażanie sobie zwierząt parami. Zwierzęta wyraźnie różniły się wielkością w obrębie każdej pary. Królik mógł np. wystąpić w parze ze słoniem, a w innym zesta wieniu - z muchą. Okazało się, że różne cechy królika były znacznie łatwiejsze do wyobrażenia, gdy występował on w parze z muchą niż gdy występował w parze ze słoniem. Czas odpowiedzi na pytanie, czy obiekt charakteryzuje się określoną cechą, zależał od względnej wielkości obu wyobrażonych obiektów. W parze ze słoniem królik jest znacznie mniejszy niż w parze z muchą, zatem jego wyobrażenie jest bardziej schematyczne, brakuje mu wielu szczegółów. Aby udzielić odpowiedzi na pytanie dotyczące cech budowy królika, osoba badana musi go w wyobraźni „powiększyć”, tak aby królik był widoczny bardzo szcze gółowo; tym samym szczegóły budowy słonia zaczynają się „rozmazywać” jako tło. Nie ma natomiast potrzeby „powiększania”, gdy królik znajduje się na pierwszym planie w towarzystwie małej, pozbawionej szczegółów muchy. Po dobne wyniki uzyskano, różnicując wyobrażenia ze względu na ich złożoność. W przypadku wyobrażeń złożonych czas decyzji był dłuższy niż w przypadku wyobrażeń prostych (Kosslyn, 1983). Nazwano to efektem ziarnistości obrazu. W innych badaniach Kosslyn, Bali i Reiser (1978) prosili uczestników o za pamiętanie mapy, na której znajdowało się siedem charakterystycznych obiek tów, np. chata, studnia, drzewo (zob. iyc. 2.3). Poprawność przechowania mapy w pamięci sprawdzano, prosząc o jej narysowanie. Procedurę tę powtarzano aż do momentu, w którym szczegóły narysowanego z pamięci rysunku nie od biegały więcej niż o 6 mm od oryginalnej lokalizacji danego elementu na mapie. We właściwej części eksperymentu proszono o wyobrażenie sobie zapamiętanej mapy. Zadaniem uczestników było skupienie uwagi na jednym z wybranych obiektów, zwanym punktem fiksacji, a następnie wyobrażenie sobie „plamki”
73
czas reakcji (s)
2.2. Reprezentacje obrazowe
0,9
I 2
| 4
I_______I______ I______ I______ |______ I______ L 6 8 10 12 14 16 18 odległość (cm)
Ryc. 2.3. Mapa wyspy wykorzystywana w badaniach Kosslyna, Balia i Reisera (1978) wraz z wykresem ilustrującym stwierdzany w paradygmacie skaningu umysłowego efekt odległości.
/ “*
Hozaziai a. istota i torma reprezentacji umysiowycn
poruszającej się z punktu fiksacji do innego elementu mapy, podanego w instruk cji. Osoby badane sygnalizowały moment osiągnięcia żądanego punktu przez po ruszającą się w ich wyobraźni „plamkę”. Im większa była odległość pomiędzy punktem fiksacji a elementem, do którego należało dotrzeć, tym więcej czasu trzeba było poświęcić na wykonanie tej operacji. Powtarzając powyższy ekspe ryment w niezmienionej postaci, Pylyshyn i Bannon otrzymali identyczną zależność: czas decyzji okazał się monotonicznie rosnącą funkcją odległości re prezentowanych w umyśle obiektów od punktu fiksacji (Pylyshyn, 1981). Analogiczny efekt uzyskał Zimmer (2004). Trzy grupy uczestników jego badania zapoznawały się z mapą terenu w szczególny sposób. Pierwsza grupa miała okazję obejrzeć mapę w całości, druga - jedynie we fragmentach, natomiast grupa trzecia otrzymała wyłącznie informacje werbalne dotyczące ujętego na mapie terenu. Zimmer potwierdził wcześniejsze wyniki, stwierdzając, że im dalej względem siebie były położone lokalizowane obiekty, tym więcej czasu zajmowało osobom badanym określenie ich położenia. Co więcej, Zimmer nie stwierdził większych różnic w zakresie czasu decyzji dotyczącej orientacji obiektów względem siebie między badanymi należącymi do dwóch pierwszych grup. Oznacza to, według niego, że całościowe wyobrażenie mapy terenu może zostać utworzone na podstawie jej fragmentów. Natomiast badani dysponujący informacjami werbalnymi podejmowali swoje decyzje znacznie wolniej, co może świadczyć albo o większych trudnościach w stworzeniu reprezentacji obrazowej na podstawie informacji werbalnych, albo o niskiej przydatności tychże informacji. Kosslyn (1983) zinterpretował wyniki badań nad skaningiem umysłowym, opierając się na koncepcji obrazowych reprezentacji poznawczych. Według tej koncepcji, każde wyobrażenie zapisane jest w postaci analogowego obrazu umysłowego, w którym zachowane są relacje przestrzenne odpowiadające wyobrażonemu obiektowi. Jeśli w realnym obiekcie jakiś szczegół jest bliski innemu szczegółowi, obraz umysłowy przechowa tę zależność i odzwierciedli ją w wyobrażeniu. Jeśli w obiekcie coś jest u góry lub na dole, tak też będzie umiejscowione w wyobrażeniu. Zakres odpowiedniości między obiektem a wyo brażeniem jest oczywiście raz większy, a raz mniejszy, w zależności od dokład ności wyobrażenia. Bywają też wyobrażenia nieadekwatne lub całkiem błędne. Nie zmienia to faktu, że istotą obrazowych reprezentacji umysłowych jest za sada fizycznej odpowiedniości między reprezentowanym obiektem a jego men talnym ekwiwalentem. Dlatego właśnie „wycieczka” po obrazie umysłowym, np. po wyobrażonej mapie terenu, jest tym dłuższa, im więcej wyobrażonej prze strzeni trzeba pokonać. Podobnie rzecz się ma w przypadku rotacji mentalnych, z tym zastrzeżeniem, że w przypadku skaningu umysłowego należy przenieść punkt fiksacji nie o zadany kąt, lecz do zadanego miejsca w wyobrażonej przestrzeni. Z tego samego powodu zużywamy znacznie więcej czasu, tworząc wyobrażenie skomplikowane (np. obrazu „Bitwa pod Grunwaldem” Jana Ma tejki), a mniej czasu, gdy jest ono ubogie w szczegóły (np. obrazu „Czarny kwadrat” Kazimierza Malewicza). Co więcej, w przypadku wyobrażania sobie małych elementów obiektu człowiek musi przełamać efekt ziarnistości: aby od powiedzieć na szczegółowe pytanie dotyczące takiego elementu, osoby badane muszą go w wyobraźni „powiększyć”. Taki „mentalny zoom” wymaga oczy wiście nieco czasu, co wykazano empirycznie.
2.2. Reprezentacje obrazowe
75
2.2.6. Krytyka stanow iska obrazowego Argumenty na rzecz stanowiska obrazowego, zgromadzone w badaniach nad rotacjami mentalnymi i skaningiem umysłowym, próbowano poważnie osłabić. Rezultaty eksperymentów Koriata, Normana i Kimcha (1991) wskazują na ograniczenia powszechności prawa dotyczącego rotacji mentalnych. Z badań tych wynika, że ludzie nie zawsze dokonują rotacji figur w wyobraźni, chcąc je z sobą porównać. Jeśli konieczne jest potwierdzenie identyczności obiektów, rotacja mentalna wydaje się niezbędna, bo bez takiego przekształcenia dokładne porównanie figur nie jest możliwe. Ale już stwierdzenie odmienności dwóch figur geometrycznych nie zawsze wymaga rotacji, bo decyzja może być podjęta inaczej niż poprzez porównywanie całości obrazów. Być może porównaniu podlegają wtedy tylko pewne fragmenty obrazów, np. centralne lub szczególnie wyróżniające się. Gdyby tak było, wyniki uzyskane przez Koriata i współpra cowników nie musiałyby godzić w stanowisko obrazowe; można by utrzymać tezę o obrazowej formie wyobrażeń, a zmienić tylko postulowany mechanizm porównania obrazów. Możliwe jest jednak wyjaśnienie znacznie prostsze, zgod nie z którym najpierw dochodzi do wstępnego porównania pewnych właściwości prezentowanych figur, np. wypukłości kątów i krawędzi czy też liczby elemen tów składowych. Jeśli wynik takiego porównania nie prowadzi do stwierdzenia różnic między figurami, podejmuje się decyzję o identyczności obu figur. Pierwszy etap tego procesu niekoniecznie wymaga operow ania na re prezentacjach obrazowych, równie dobrze może się odbywać na podstawie reprezentacji w formie zbioru cech (por. wyjaśnienia procesu rozpoznawania twarzy przez teorie wzorców i cech; zob. rozdz. 7.5.2). Argumentów przeciwko koncepcji obrazowej dostarczyli także Marmor i Zaback (1976), prosząc osoby niewidome od urodzenia o wykonanie zadania Coopera i Sheparda. Istnieje przekonanie, że niewidomi od urodzenia w ogóle nie dysponują obrazowymi reprezentacjami poznawczymi. W cytowanym eks perymencie badani wykonywali zadanie, korzystając ze zmysłu dotyku. Mogli dotykiem zapoznać się z figurą, czyli obiektem rotacji, ale samej rotacji doko nywali już „w wyobraźni”. Mimo iż forma reprezentacji umysłowych nie mogła być obrazowa, stwierdzono liniową zależność między czasem podjęcia decyzji co do rotowanego obiektu a wielkością kąta jego rotacji. Wynik ten nie jest wprawdzie sprzeczny z twierdzeniem o ekwiwalencji percepcji i wyobraźni, godzi jedynie w pogląd o obrazowej (czytaj: wizualnej) formie wyobrażeń. Być może należałoby określić formę wyobrażeń jako sensoryczną, zależną od użytej modalności zmysłowej. Taki wniosek pozostaje już jednak w opozycji do skraj nej wersji koncepcji Kosslyna, która w związku z tym wydaje się zbyt jedno stronna. Do podobnych wniosków prowadzą wyniki niektórych badań prowadzo nych w paradygmacie skaningu umysłowego. W jednym z eksperymentów (Intons-Peterson, Roskos-Ewaldson, 1989) polecono osobom badanym prze nieść w wyobraźni piłkę między kilkoma punktami wyobrażonej mapy. W trzech warunkach eksperymentu piłka miała taki sam kształt, wielkość i rozmiar, ale różniła się ciężarem (odpowiednio: 3 uncje, 3 funty i 30 funtów). Zgodnie z prawem dystansu wykrytym przez Kosslyna, w każdym z trzech warunków eksperymentalnych czas reakcji zależał liniowo i rosnąco od odległości pomię
#o
Hozaziaf
istota i iorma reprezentacji umysiowycn
dzy punktem startu (punkt fiksacji) a punktem docelowym, zadanym przez instrukcję. Stwierdzono ponadto, że czas reakcji był tym dłuższy, im cięższą piłkę należało „przenieść” w wyobraźni. Również Hubbard (1997) wykazał, że waga obiektów ma wpływ na dokonywaną w wyobraźni ocenę miejsca, w którym może się znaleźć poruszający się obiekt. Autor wyprowadził na tej podstawie wniosek, że nietrwałe reprezentacje wyobrażeniowe powstają z uwzględnieniem ciężaru wyobrażonych obiektów. Wydaje się więc całkiem możliwe, że powierzchniowe, nietrwale repre zentacje umysłowe mają charakter nie tyle obrazowy, co sensoryczny. W takim przypadku postulowane przez Kosslyna (1983) obrazy umysłowe byłyby tylko jednym z kilku rodzajów takich reprezentacji. Można by wobec tego mówić 0 wyobrażeniach dotykowych, z których prawdopodobnie korzystali niewidomi od urodzenia uczestnicy badania Marmora i Zabacka (1976) czy też osoby biorące udział w innych badaniach (Intons-Peterson, Roskos-Ewaldson, 1989; Hubbard, 1997). Teoria podwójnego sytemu kodowania (Paivio, 1971, 1986) uwzględnia możliwość niewerbalnego, ale innego niż obrazowe, kodowania danych zmysłowych (zob. rozdz. 2.3.2). Wyniki badań nad reprezentacjami dotykowymi świadczą przeciwko koncepcji obrazów umysłowych jako jedynej 1koniecznej formy wyobrażeń, a ponadto pozwalają na formułowanie wniosków dotyczących werbalnej formy reprezentacji umysłowych. Reprezentacje tego rodzaju będą omówione w kolejnym podrozdziale.
2.3. Reprezentacje werbalne 2.3 .1 . Weryfikacja sylogizm ów i treści zdań Clark (1969) poprosił osoby badane o rozwiązywanie prostych sylogizmów werbalnych, czyli zadań wymagających wyciągania wniosków z przesłanek. Miały one porównać kilka fikcyjnych osób pod względem jakiejś cechy, na przykład wzrostu. Badanym dostarczano na wstępie kilku przesłanek, np.: „Jan jest wyższy od Piotra. Andrzej jest niższy od Piotra”. Na tej podstawie trze ba było sformułować wniosek, np. odpowiadając na pytanie: „Kto jest najwyż szy?”. Okazało się, że udzielenie odpowiedzi zajmowało różną ilość czasu w zależności od poznawczej i językowej złożoności zadania. Stosunkowo szybko odpowiadano na pytania, gdy były ono językowo zgodne z przesłankami, np. gdy w przesłankach używano słowa „wyższy”, a pytanie dotyczyło tego, kto jest „najwyższy”. Natomiast relatywnie więcej czasu wymagało zadanie, w którym przesłanki operowały relacją wyższości, a pytanie brzmiało: „Kto jest najniższy?”. Badani zachowywali się więc tak, jak gdyby przekształcenie relacji „A jest wyższe od B” w relację „B jest niższe od A” wymagało pewnej porcji czasu. Podobne wyniki uzyskano w przypadku, gdy przesłanki sylogizmu formułowano za pomocą zdań twierdzących, zaś w pytaniu pojawiało się przeczenie, np.: „Czy Piotr nie jest wyższy od Jana?”. Co więcej, im bar dziej komplikowano pytanie w stosunku do przesłanek (np. użycie podwójnej negacji), tym więcej czasu trzeba było przeznaczyć na wypracowanie odpo wiedzi.
2.3. Reprezentacje werbalne
77
Gdyby reprezentacje towarzyszące procesowi rozwiązywania sylogizmów były dostępne w postaci obrazów umysłowych, różnice tego rodzaju nie powinny wystąpić. Wyobrażenie sobie trzech osób: Jana, Piotra i Andrzeja, różniących się wzrostem i stojących obok siebie, powinno z równą łatwością prowadzić do odpowiedzi, kto jest najwyższy, jak też do stwierdzenia, kto jest najniższy. Obraz umysłowy jest dostępny w całości, a ponadto zawiera wszystkie ważne relacje między obiektami. Stwierdzenie wymienionych wyżej różnic w czasie reakcji jest więc silnym argumentem przeciwko tezie o obrazowej formie reprezentacji umysłowych, w każdym razie przeciwko skrajnej wersji tego stanowiska. Tego typu wyniki skłoniły wielu psychologów do przyjęcia tezy, że wyobrażenia nie przybierają formy obrazowej, lecz werbalną (Paivio, 1986) lub propozycjonalną, np. w postaci zbioru sądów o relacjach między obiektami (Pylyshyn, 1973). Im więcej sądów należy rozważyć bądź im bardziej sąd odpowiadający pytaniu jest niekompatybilny w stosunku do sądów tworzących przesłanki, tym dłużej trwa wypracowanie odpowiedzi. W klasycznym eksperymencie nad weryfikacją treści zdań Clark i Chase (1972) prosili osoby badane o przyswojenie sobie treści zdania o relacjach przestrzennych łączących dwa symbole, takie jak plus (+) i gwiazdka (*). Uczestnicy mieli następnie odpowiedzieć na pytanie, czy na obrazku widać to samo, o czym jest mowa w zdaniu. Prezentowano np. zdanie: „Plus jest nad gwiazdką”, a po jego przyswojeniu pokazywano plus nad gwiazdką lub plus pod gwiazdką; badani musieli odpowiedzieć TAK lub NIE, w zależności od tego, czy uznawali treść zdania za zgodną z obrazkiem (paradygmat 2.2). Zdania prezentowane w pierwszej fazie mogły zawierać negację (np. „Plus nie jest nad gwiazdką”), mogły też wymagać odwrócenia relacji (np. „Plus jest pod gwiazdką”). Podobnie jak w badaniach Clarka (1969), więcej czasu wymagała weryfikacja zdań, w których należało użyć negacji lub przekształcić relację, podczas gdy zdanie niezawierające żadnych przekształceń (np. „Plus jest nad gwiazdką”) weryfikowano stosunkowo szybko. Co więcej, osoby badane po dzielono ze względu na poziom zdolności werbalnych lub przestrzennych. Nie stwierdzono większych różnic w całkowitym czasie weryfikacji zdań między grupami wyróżnionymi ze względu na poziom owych zdolności. Uzyskano natomiast znaczne różnice w odniesieniu do czasu trwania obu faz rozwiązy wania zadania: kodowania informacji werbalnej i weryfikowania jej zgodności z treścią informacji wizualnej. Osoby charakteryzujące się wyższymi zdolnoś ciami werbalnymi kodowały treść zdania znacznie szybciej niż osoby o wyższych zdolnościach obrazowych. W fazie weryfikacji zależność była odwrotna: szybsze okazały się osoby o wysokim poziomie zdolności przestrzennych (tab. 2.1). Badania w paradygmacie weryfikacji treści zdań prowadzili również MacLeod, Hunt i Mathews (1978). Uczestnikom prezentowano wzrokowo dwa symbole w pewnej relacji przestrzennej (np. znak „ + ” umieszczony nad znakiem „*”), a następnie proszono ich o weryfikację różnych sądów opisujących tę relację. Jedyna różnica w stosunku do badania Clarka i Chase’a (1972) polegała więc na tym, że najpierw podawano informację wzrokową, a w drugiej kolejności - werbalną. W przypadku większości osób badanych (43 osoby) wyniki były bardzo podobne do tych, które uzyskali Clark i Chase: im większa logiczno-gramatyczna złożoność zdania, tym dłuższy czas weryfikacji. Można wnioskować, że osoby te w fazie przyswajania treści obrazka utworzyły
/o
ttozaziai
istota i iorma reprezentacji umysiowycn
Paradygmat 2.2
Weryfikacja treści zdań Badania w paradygmacie weryfikacji treści zdań (sentence-picture verification task) zapoczątkowali Clark i Chase (1972), a kontynuowali MacLeod, Hunt i Mathews (1978). W tego typu eksperymentach osobom badanym prezentuje się obrazek przedstawiający dwa elementy (np. symbole „*”) w relacji przestrzennej. Zwykle jeden symbol jest u góry, a drugi na dole. Wcześniej lub później uczestnikom prezentuje się zdanie opisujące przestrzenną relację obu symboli, np.: „Plus jest nad gwiazdką”. Eksperyment wymaga prezentacji wszystkich możliwych typów zdań, a więc twierdzących lub przeczących, prawdziwych i nieprawdziwych, operujących relacją prostą (np. coś jest nad czymś) lub jej zaprzeczeniem (np. coś jest pod czymś). Pełny układ warunków eksperymentalnych przedstawia poniższa tabela. Typ zdania
Treść zdania
Twierdzące
Gwiazdka jest nad plusem Plus jest pod gwiazdką
Twierdzące Twierdzące Twierdzące Przeczące Przeczące Przeczące Przeczące
Obraz *
Wymagana reakcja
+ *
TAK
+
NIE
Gwiazdka jest nad plusem Plus jest pod gwiazdką
+ *
NIE
Gwiazdka jest pod plusem Plus jest nad gwiazdką
+ *
TAK
Gwiazdka nie jest nad plusem Plus nie jest pod gwiazdką
*
Gwiazdka jest pod plusem Plus jest nad gwiazdką
+ *
NIE
+
TAK
Gwiazdka nie jest nad plusem Plus nie jest pod gwiazdką
+ *
TAK
Gwiazdka nie jest pod plusem Plus nie jest nad gwiazdką
+ *
NIE
Gwiazdka nie jest pod plusem Plus nie jest nad gwiazdką
Osoba badana ma podjąć decyzję, czy treść zdania jest zgodna z obrazkiem. Wymaga to zwykle naciśnięcia jednego z dwóch przycisków, przy czym mierzony jest czas decyzji i liczba błędów. W zależności od wariantu tej procedury najpierw pre zentuje się obrazek, a potem zdanie (MacLeod, Hunt, Mathews, 1978) lub odwrotnie (Clark, Chase, 1972). Można też spowodować, aby pierwsza część stymulacji (np. zdanie) nie znikała z monitora wraz z pojawieniem się części drugiej (np. obrazka). Badany może wówczas weryfikować treść zdania, widząc wszystkie potrzebne dane. W innym wariancie Informacja słowna znika, zanim pojawi się obrazek (lub odwrotnie), co bardziej angażuje pamięć operacyjną i czyni całe zadanie trudniejszym. W badaniach prowadzonych w tym paradygmacie zwykle stwierdza się, że czas weryfikacji treści zdania zależy od stopnia jego logicznej i gramatycznej komplikacji. Najprostsze do weryfikacji są proste zdania twierdzące, wymagające reakcji TAK, np. „Plus jest nad gwiazdką”, a najtrudniejsze - zdania przeczące, wymagające reakcji NIE i dodatkowo zawierające odwróconą relację, np. „Gwiazdka nie jest pod plusem”.
2.3. Reprezentacje werbalne
79
'
Paradygmat weryfikacji treści zdania był często używany w psycholingwistyce, ponieważ pozwala ocenić koszty poznawcze związane z przetwarzaniem zdań o różnej konstrukcji i różnym poziomie komplikacji. Okazało się np., że zdania s zawierające negację wymagają nieco dłuższego czasu weryfikacji niż zdania bez i negacji. Wynika to prawdopodobnie stąd, że zdania z negacją wymagają dodatkowej operacji umysłowej, tak jakby samo przeczenie było osobnym za■biegiem poznawczym. Ponadto zdania zawierające słowa typu „pod” lub „za” wymagają więcej czasu niż niczym się poza tym nieróżniące zdania ze słowami „nad” i „przed”. Relacja, że coś jest pod czymś lub za czymś, nie jest, być może, ■;poznawczo naturalna czy też pierwotna, gdyż powstaje w umyśle jako zaprzeczenie i relacji, że coś jest nad czymś lub przed czymś. Innymi słowy, człowiek mówi: „Pies leży pod stołem”, ale poznawczo reprezentuje tę sytuację w postaci sądu: „Pies leży nie nad stołem”. Tylko w ten sposób możemy wytłumaczyć fakt, że przetwa rzanie pewnych relacji jest związane z większymi kosztami poznawczymi w postaci wydłużonego czasu podejmowania decyzji i większej podatności na błędy. Tab. 2.1. Czas weryfikacji treści zdań przez osoby o wysokim (+) lub niskim (-) poziomie zdolności werbalnych (W) lub wyobrażeniowych (O), w zależności od fazy przetwarzania informacji (za: Clark, Chase, 1972). Faza przetwarzania
Osoby typu W +/O -
Osoby typu O+/W -
kodowanie treści zdania
1652 ms
2579 ms
obserwacja obrazka i decyzja
1210 ms
651 ms
całość zadania
2862 ms
3230 ms
reprezentację poznawczą w formie werbalnej, inaczej mówiąc - przetłumaczyły obrazek na słowa. W fazie weryfikacji porównywały więc ze sobą dwie repre zentacje werbalne, przez co traciły na to tym więcej czasu, im bardziej skom plikowane były owe reprezentacje. Jednak 16 osób badanych zachowywało się zupełnie inaczej, tak jakby w trakcie wykonywania zadania posługiwało się cały czas kodem obrazowym. W przypadku tych 16 osób sądy zawierające negację czy też odwrócenie relacji były weryfikowane tak samo szybko, jak zupełnie proste twierdzenia. Osoby te prawdopodobnie nie dokonywały „przekładu” obrazka na słowa, lecz odwrotnie - pojawiające się w drugiej fazie zdanie „tłumaczyli” na kod obrazowy. MacLeod i współpracownicy wyciągnęli na tej podstawie wniosek, że uczestnicy eksperymentu posługiwali się różnymi strategiami weryfikacji treści zdań: werbalną lub obrazową, a różnice te wy nikały ze względnie trwałych preferencji indywidualnych. Co więcej, w przypadku 43 badanych, prawdopodobnie rozwiązujących zadania z wykorzystaniem reprezentacji werbalnych, korelacja między pozio mem zdolności werbalnych a czasem weryfikacji zdania była wysoka (-0,44), podczas gdy analogiczna korelacja dotycząca zdolności przestrzennych okazała się bardzo niska (-0,07). Natomiast w przypadku 16 osób, rozwiązujących zadania prawdopodobnie z wykorzystaniem reprezentacji obrazowych, kore lacja między poziomem zdolności werbalnych a czasem weryfikacji była niska (-0,05), zaś korelacja między poziomem zdolności przestrzennych a czasem
t5U
Kozdział Ł. istota i lorma reprezentacji umystowycn
weryfikacji - bardzo wysoka (-0,64). Te związki korelacyjne są oczywiście tylko pośrednim argumentem na rzecz tezy o wykorzystywaniu przez osoby badane różnych form nietrwałych reprezentacji poznawczych. Argument ten wymaga bowiem dodatkowego założenia, że wysoki poziom zdolności werbalnych skłania człowieka do stosowania strategii werbalnej, a wysoki poziom zdolności przestrzennych - strategii obrazowej. Byłoby jednak wysoce nieekonomiczne dla systemu poznawczego, gdyby dysponując np. niskim poziomem zdolności w zakresie operacji obrazowych, preferował on obrazową formę reprezentacji w rozwiązywaniu sylogizmów. W innym badaniu Robert Sternberg (1980) analizował związek między cza sem rozwiązywania sylogizmów a zdolnościami przestrzennymi (spatial ability) oraz werbalnymi (verbal ability). Okazało się, że choć obydwie zdolności korelują ze sobą dość słabo (0,20), obie wywierają wpływ na tempo rozwiązywania sylo gizmów. Większe znaczenie wydają się mieć zdolności werbalne (-0,49) niż prze strzenne (-0,35), ale istotna rola tych ostatnich sprawia, że nie można wykluczyć udziału wyobrażeń w rozwiązywaniu zadań wymagających weryfikacji praw dziwości sylogizmów. Zdolności przestrzenne (obrazowe) wydają się mieć szcze gólne znaczenie w fazie kodowania danych: im wyższy poziom zdolności prze strzennych, tym krótszy czas kodowania przesłanek sylogizmu (-0,51). Zależność między poziomem zdolności werbalnych a czasem kodowania przesłanek jest znacznie słabsza (-0,25). Z kolei w fazie przekształcania przesłanek w celu weryfikacji sylogizmu zdolności przestrzenne niemal w ogóle nie wpływają na czas reakcji (-0,09), podczas gdy zależność między poziomem zdolności werbalnych a czasem rozwiązywania jest dość silna (-0,30). Wyniki uzyskane przez Sternberga mogą świadczyć na korzyść tezy o nierozstrzygalności problemu języka kodowania nietrwałych reprezentacji umysłowych, utworzonych w celu rozwiązania prob lemu. Być może człowiek jest w stanie wykorzystywać powierzchniowe, nietrwałe reprezentacje zarówno w formie obrazowej, jak i werbalnej, i to w trakcie wykonywania jednego zadania. Forma reprezentacji poznawczych byłaby wtedy ściśle powiązana z fazą procesu przetwarzania informacji (kodowanie, porówny wanie), który te reprezentacje wykorzystuje i na nich operuje. Podsumowując, weryfikacja prawdziwości sylogizmów i treści zdań opiera się prawdopodobnie na dwóch typach nietrwałych reprezentacji umysłowych. Z reprezentacji obrazowych korzystamy przede wszystkim wtedy, gdy podawane nam informacje przybierają postać obrazów, jak też wtedy, gdy cechujemy się wysokim poziomem zdolności w zakresie przetwarzania obrazów. Natomiast z reprezentacji werbalnych korzystamy wtedy, gdy trzeba zweryfikować prawdziwość wyrażonego słowami twierdzenia o relacjach, a także wtedy, gdy dysponujemy wysokim poziomem kompetencji językowej. Skrajnie obrazowe stanowisko w sporze o naturę reprezentacji wydaje się zatem nie do utrzymania, a stanowisko możliwe do przyjęcia musi uwzględniać istnienie co najmniej dwóch rodzajów reprezentacji umysłowej.
2.3 .2 . Teoria podwójnego kodowania Takie umiarkowane stanowisko zaproponował Paivio (1971, 1986). Według je go teorii podwójnego kodowania, człowiek reprezentuje rzeczywistość w dwóch
2.3. Reprezentacje werbalne
81
systemach: niewerbalnym (sensorycznym) i werbalnym (językowym). Oba systemy cechują się specyficzną strukturą wewnętrzną i swoistym sposobem przetwarzania danych. Paivio twierdzi, że reprezentacje umysłowe są swoiste ze względu na modalność zmysłową (modality specific), inaczej np. reprezentuje się dane wizualne, a inaczej słowne. Z tego względu koncepcja podwójnego kodowania, mimo że zrywa z tezą o zawsze obrazowej reprezentacji rzeczy wistości, zajmuje miejsce pośrednie pomiędzy stanowiskiem obrazowym (Kosslyn) a stanowiskiem propozycjonalnym (Pylyshyn, Anderson). Podczas gdy Kosslyn zaprzecza, aby nietrwałe reprezentacje umysłowe mogły mieć formę inną niż obrazowa (np. werbalną), zwolennicy stanowiska propozycjonalnego nie mogą się zgodzić z polimodalnym ujęciem reprezentacji umysłowych. W ich ujęciu sądy mają zawsze charakter amodalny, czyli niezależny od zaangażowa nego kanału sensorycznej recepcji bodźców. Według Paivio, dane zmysłowe mogą być kodowane w jednym z pięciu podsystemów składających się na system niewerbalny. Każdy podsystem cha rakteryzuje się innym językiem kodowania i odpowiada za inną modalność sensoryczną reprezentowanych obiektów. Dzięki temu możliwe jest utworzenie odrębnego obrazu sensorycznego (sensory picture) dla każdego reprezento wanego obiektu. Obrazy umysłowe, opisane przez Kosslyna, to tylko jedna z pięciu kategorii obejmujących niewerbalne reprezentacje poznawcze. Pozo stałe kategorie to dźwięki, odczucia dotykowe, smakowe i zapachowe. Mimo że obrazy umysłowe nie mają monopolu na niewerbalną reprezentację poznawczą, zdają się odgrywać rolę dominującą, są bowiem najczęściej przywoływane i wymieniane jako wewnętrzne odpowiedniki obiektów percepcyjnych (Kosslyn iin., 1990). Wszelkie niewerbalne reprezentacje umysłowe, niezależnie od modalności sensorycznej, zostały przez Paivio nazwane imagenami. Uważa on, że imageny są przetwarzane szybko i równolegle, gdyż reprezentują struktury holistyczne, takie jak całe obiekty, całościowe ich fragmenty bądź też grupy obiektów w formie zarówno statycznej, jak i dynamicznej. Imageny charakteryzują się dużym stopniem analogowości w stosunku do reprezentowanych obiektów. Oznacza to, że imageny zachowują niektóre fizyczne właściwości obiektu, takie jak wielkość czy relacje przestrzenne między jego elementami. Wykazano np., że niewielkie rozmiarem fotografie twarzy ludzkiej są gorzej zapamiętywane niż te same fotografie o większym rozmiarze, natomiast dla kodowania i zapamięty wania prezentowanych wzrokowo słów wielkość i rodzaj użytej czcionki nie mają żadnego znaczenia (Kolers, Duchnicky, Sundstroem, 1985). System werbalny umożliwia kodowanie informacji w postaci symboli języ kowych. Zazwyczaj są to słowa języka naturalnego, ale możliwe jest też zakodowanie informacji w postaci innych etykiet werbalnych. Reprezentacje werbalne mogą bowiem wchodzić w skład jakiegokolwiek języka, również sztucznego, takiego jak symbole matematyczne czy język programowania kom puterowego (Paivio, 1986). W skład systemu werbalnego wchodzą trzy pod systemy do kodowania informacji werbalnych, przeznaczone dla danych nadchodzących kanałem wizualnym, akustycznym lub dotykowym. Niezależnie od zaangażowanego kanału sensorycznego, wszystkie reprezentacje werbalne noszą wspólną nazwę logogenów. Istotną ich właściwością jest symboliczny charakter, związany z użytą konwencją wiązania rzeczy lub innych oznaczanych
obiektów ze znakami. Słowa i etykiety werbalne bardzo rzadko przypominają brzmieniowo reprezentowane obiekty; wyjątkiem są słowa onomatopeiczne, dźwiękowo podobne do oznaczanej rzeczy lub czynności (np. charczenie, sze lest). W zdecydowanej większości przypadków słowa w niczym nie przy pominają sensorycznych właściwości reprezentowanych przez siebie obiektów, a ich znaczenie jest ustalone na zasadzie powszechnego konsensu i umowy społecznej. Przeciwnie niż imageny, przetwarzanie logogenów dokonuje się w wolnym tempie i szeregowo, co wynika z samej natury języka jako systemu kodowania (zob. rozdz. 13). Istnienie systemu niewerbalnego wydaje się dobrze uzasadnione wynikami badań prowadzonych przez zwolenników stanowiska obrazowego. Badania te wykazały, że w tworzeniu imagenów uczestniczy przede wszystkim wzrok, ale również inne modalności sensoryczne. Natomiast argumentów za istnieniem werbalnego systemu kodowania dostarczył sam Paivio (1971). Poczynione przez niego obserwacje wskazują, iż nie wszystkie obiekty otaczającego nas świata posiadają swoją sensoryczną reprezentację. Dotyczy to w szczególności pojęć abstrakcyjnych, jak np. „zaleta” czy „kontekst” (Paivio, Yuille, Madigan, 1968). Próby utworzenia sensorycznej reprezentacji takich pojęć (np. obrazo wej) zazwyczaj kończą się niepowodzeniem. W eksperymentach Paivio i współ pracowników wymienione wyżej słowa uznano za najtrudniejsze do wyobra żenia. Ponadto słowom tym przypisywano najniższe rangi na wymiarze konkretności, zdefiniowanym jako stopień powiązania z fizycznym wymiarem rzeczywistości.
2.3 .3 . Słow o i obraz - w zajem ne relacje Dwa systemy kodowania - werbalny i niewerbalny - są względnie niezależne, co oznacza, że w tym samym czasie można przetwarzać informacje słowne i obra zowe. Możliwe jest np. wykonanie zadania podwójnego, polegającego na jedno czesnej grze na pianinie z nut i powtarzaniu prozy ze słuchu (Allport, Antonis, Reynolds, 1972). Pierwsze zadanie opiera się bowiem na obrazowych, senso rycznych reprezentacjach rzeczywistości, podczas gdy drugie - na reprezenta cjach werbalnych. Według Paivio (1986), oba systemy są jednak powiązane wzajemnymi relacjami. Mają one przede wszystkim charakter referencjalny: reprezentacjom obrazowym odpowiadają werbalne i odwrotnie (zob. ryc. 2.4). Połączenia te nie zawsze są kompletne: wprawdzie określony imagen jest zwykle powiązany z jakimś logogenem, ale bywają wyjątki od tej reguły. W systemie poznawczym istnieją reprezentacje werbalne, którym nie odpowiadają żadne reprezentacje obrazowe. Chodzi tu w szczególności o pojęcia abstrakcyjne, odpowiadające nadrzędnym kategoriom obiektów. W systemie mogą też istnieć reprezentacje obrazowe, którym nie odpowiadają żadne reprezentacje obrazo we. Chodzi tu o wyobrażenia, którym nie odpowiada żaden rzeczywisty obiekt, np. wyobrażenia twórcze, czyli obrazy umysłowe, którym dopiero wtórnie możemy nadać nazwy, jeśli okażą się wystarczająco nowe i pożyteczne. Mimo owej niekompletności powiązań między systemem werbalnym i niewerbalnym, ogólną zasadą działania umysłu według koncepcji podwójnego kodowania jest to, że wzbudzanie jakiejś reprezentacji werbalnej aktywizuje reprezentację
2.3. Reprezentacje werbalne bodźce werbalne
83
bodźce niewerbalne
S Y S
T E
M N
I E W
E R B A L
N Y
reakcje werbalne
reakcje niewerbalne
Ryc. 2.4. Wzajemne relacje między werbalnym i niewerbalnym systemem kodowania (za: Paivio, 1986).
niewerbalną i vice versa. Inaczej mówiąc, wzbudzenie dowolnej reprezentacji umysłowej powoduje aktywizację reprezentacji referencjalnej, czyli odnoszącej się do tego, co zostało wzbudzone wcześniej. Zjawiska te noszą nazwę procesów referencjalnych. W ramach systemu podwójnego kodowania zachodzą ponadto dwa inne rodzaje procesów (Paivio, 1986). Jako pierwsze wymienić należy procesy re prezentacyjne. Ich zadanie polega na przyporządkowaniu poszczególnych obiektów, spostrzeganych w różnych modalnościach zmysłowych, do jednego z pięciu podsystemów niewerbalnych lub do jednego z trzech podsystemów
o fl
Rozdział c. Istota i torma reprezentacji umysłowych
werbalnych. Po drugie, w umyśle zachodzą procesy asocjacyjne. Funkcjonują one wewnątrz każdego z dwóch systemów: werbalnego i niewerbalnego, odpo wiadając za łączenie się poszczególnych reprezentacji w skojarzone ze sobą grupy. Porządek, w jakim działają procesy asocjacyjne, jest różny w zależności od systemu. W systemie werbalnym układ reprezentacji jest raczej hierarchicz ny, to znaczy zdefiniowany relacją znaczeniowej podrzędności-nadrzędności. Natomiast w systemie niewerbalnym porządek ten jest liniowy - poszczególne obrazy łączą się z sobą w dłuższe łańcuchy skojarzeniowe, zgodnie z klasycznymi regułami opisanymi przez zwolenników asocjacjonizmu. W zależności od rodzaju stymulacji, istnieje większe lub mniejsze prawdo podobieństwo użycia systemu werbalnego lub niewerbalnego w celu zakodo wania informacji (Paivio, 1971; zob. tab. 2.2). Obraz może zostać zakodowany werbalnie, ale jest to znacznie mniej prawdopodobne niż użycie kodu obra zowego. Analogicznie - słowa mogą być kodowane obrazowo, ale jest to mało prawdopodobne, a słowa abstrakcyjne w ogóle się do tego nie nadają (Cornoldi, Paivio, 1982). Tabela 2.2 ilustruje również postulowany przez Paivio brak równowagi obu systemów. System werbalny koduje wszystko, jednakże obrazy z nieco mniejszym prawdopodobieństwem, podczas gdy system niewerbalny w zasadzie koduje tylko obrazy, a słowa bardzo rzadko i tylko jeśli są konkretne. Paivio, Yuille i Mandigan (1968) stwierdzili wysoką korelację (0,83) pomiędzy stopniem konkretności słowa a możliwością jego obrazowej reprezentacji w umyśle, zaś Richardson (1980) wykazał, że wyobraźnia wspomaga zapa miętywanie słów, ale tylko -wtedy, gdy nie są to słowa abstrakcyjne. Z kolei Johnson, Paivio i Clark (1996) wykryli, że definicje tworzone dla słów kon kretnych są bardziej precyzyjne, dłuższe i wspomagane wyobraźnią, podczas gdy słowa abstrakcyjne są definiowane gorzej, często z użyciem nadmiernie złożonych struktur językowych. Tab. 2.2. Prawdopodobieństwo użycia systemu werbalnego lub niewerbalnego przy kodowaniu informacji (za: Paivio, 1971). Typ bodźca
System obrazowy
System werbalny
obrazek
+++
++
słowo konkretne
+
+++
słowo abstrakcyjne
-
+++
Chociaż system werbalny ma potencjalnie większe możliwości w zakresie kodowania informacji, kodowanie obrazowe bardziej sprzyja efektywności za pamiętania. Zjawisko to, nazwane efektem przewagi obrazu nad słowem (picture-word superiority effect), wykryli w serii pięciu eksperymentów Paivio i Csapo (1969). W każdym eksperymencie osoby badane odpamiętywały obrazki oraz słowa konkretne i abstrakcyjne. W pierwszym eksperymencie część uczest ników poinformowano przed prezentacją bodźców o konieczności późniejszego odpamiętania materiału, pozostałym takiej informacji nie podano. Podczas pre zentacji badani zapisywali w kwestionariuszu nazwy przedstawianych im bodź ców. Paivio i Csapo stwierdzili, że - niezależnie od poinformowania badanych
2.3. Reprezentacje werbalne
85
o późniejszym teście pamięci - obrazki zostały odpamiętane na takim samym, wysokim poziomie, natomiast słowa odpamiętano znacznie gorzej (choć słowa konkretne nieco lepiej niż abstrakcyjne). Tylko w przypadku odpamiętania słów zaobserwowano istotne różnice na korzyść badanych, którzy wiedzie li o późniejszym teście pamięci w stosunku do osób pozbawionych tej in formacji. W drugim eksperymencie Paivio i Csapo zmienili formę rejestracji pre zentowanych bodźców - część badanych zapisywała je w formie werbalnej, a część szkicowała ich kontur. Ponownie efektywność zapamiętania okazała się najwyższa w przypadku obrazków, niezależnie od formy ich rejestracji (ok. 45% poprawnych odpowiedzi). Natomiast jeśli zapamiętywanym bodźcem było słowo, narysowanie go zwiększało szansę zapamiętania (ponad 50% bodźców odpamiętanych) w porównaniu z jego zapisaniem (tylko 21% bodź ców odpamiętanych). W eksperymencie trzecim ponownie zmieniono proce durę: zamiast zapisywania lub szkicowania bodźców trzeba było je sobie wyobrazić lub przeliterować. Wyniki były identyczne z rezultatami ekspery mentu drugiego - uzyskano wysoką efektywność zapamiętywania obrazków niezależnie od formy ich opracowania. Stwierdzono również dobre wyniki zapamiętywania słów, które należało sobie wyobrazić, natomiast słowa, których nazwę należało przeliterować, były przywoływane bardzo słabo. Ostatnie dwa eksperymenty, zbliżone w metodzie do wcześniejszych, również przyniosły wyniki potwierdzające prymat kodowania obrazowego nad werbalnym, jeśli chodzi o efektywność zapamiętywania. Efekt przewagi obrazu nad słowem został potwierdzony przez innych badaczy (np. Snodgrass, McLure, 1975; Ritchey, 1980). Potwierdzono również funkcjonalną niezależność dwóch systemów kodo wania informacji. W swoim pierwszym badaniu Paivio (1969) pokazywał uczestnikom bardzo szybkie sekwencje obrazów lub słów. Zadanie polegało na odpamiętaniu pokazanego materiału w porządku dowolnym albo w porządku prezentacji. Paivio ustalił, że badani znacznie lepiej odpamiętywali obrazki niż słowa, gdy porządek, w jakim mogli to robić, nie był im narzucony (metoda swobodnego przypominania). Natomiast sztywny porządek odpamiętywania sprawił, że lepiej pamiętano słowa niż obrazy. Z badania tego płynie wniosek, iż chcąc zapamiętać jak najwięcej materiału, powinniśmy stosować niewerbalny system reprezentacji poznawczej, ale jeśli odpamiętanie ma mieć uporządko wany charakter, lepiej jest stosować system werbalny. Obserwację Paivio wykorzystuje wiele mnemotechnik ułatwiających zapamiętywanie, np. technika wizualizacji (zob. rozdz. 9.1.4). W kolejnym badaniu (Paivio, Csapo, 1973) podjęto problem, czy powta rzanie wcześniej zapamiętanego materiału w innym systemie niż ten, który był pierwotnie odpowiedzialny za zapamiętywanie, pomaga czy też przeszkadza w utrwaleniu skutków zapamiętywania. Cztery grupy eksperymentalne najpierw zapamiętywały, a potem utrwalały materiał przez powtarzanie. Grupa pierwsza najpierw zapamiętywała słowa, a potem je powtarzała. Grupa druga uczyła się na pamięć słów, ale później powtarzała odpowiadające im obrazki. Grupa trzecia najpierw zapamiętywała obrazki, a potem je powtarzała. Natomiast grupa czwarta uczyła się obrazków, ale później powtarzała odpowiadające im słowa. Okazało się, że powtarzanie materiału pomogło wszystkim uczestnikom:
86
Rozdział 2. Istota i forma reprezentacji umysłowych
we wszystkich grupach wzrosła liczba prawidłowo odpamiętanych bodźców. Efekt wzrostu liczby odpamiętanych bodźców okazał się największy u uczestni ków eksperymentu z grup: drugiej i czwartej, a więc u tych badanych, którzy zmuszeni zostali do korzystania z odmiennych systemów kodowania danych w dwóch różnych etapach procesu pamięciowego. Istnieją więc przekonujące argumenty na rzecz tezy, że umysł reprezentuje rzeczywistość co najmniej na dwa sposoby: obrazowy i werbalny. Wymaga to prawdopodobnie zaangażowania odrębnych systemów reprezentacji, które działają niezależnie, choć we wzajemnej współpracy. W języku słów i etykiet werbalnych można zakodować znacznie szersze spectrum bodźców, ale język obrazów jest znacznie efektywniejszy, jeśli chodzi o skuteczność zapamiętywa nia. Wydaje się, że najbardziej skuteczną formą reprezentowania informacji w umyśle jest kodowanie referencjalne, wykorzystujące oba dostępne języki kodowania danych zmysłowych: obrazowy i werbalny.
2.3 .4 . Reprezentacje num eryczne „Żyjemy w świecie wypełnionym liczbami” (McCloskey, Macaruso, 1995, s. 351). Częstość, z jaką przychodzi nam na co dzień zmagać się z liczbami, nakazuje postawić pytanie o to, jak trafne są umysłowe odzwierciedlenia infor macji numerycznych. Bardziej podstawowe pytanie dotyczy tego, czy liczby wymagają osobnego formatu reprezentacji umysłowej, czy też mogą być kodowane w systemie bardziej uniwersalnym, np. obrazowym lub werbalnym. Istnieją powody, aby sądzić, że liczby mogą być reprezentowane zarówno w for mie obrazowej, w postaci wyobrażeń, jak też w formie fonologicznej, w postaci bezgłośnie artykułowanych głosek (McCloskey, Macaruso, 1995). Oznaczałoby to, że reprezentacje numeryczne podlegają zasadzie podwójnego kodowania (Paivio, 1986). Nie można jednak wykluczyć, że istnieją jakieś głębsze formy odzwierciedlania liczb, zrywające z powierzchniową formą reprezentacji i uwzględniające semantyczne aspekty informacji numerycznej. Na przykład liczba 13 może być umysłowo reprezentowana jako obraz składających się na nią cyfr, jako osiem fonemów tworzących trzy sylaby (trzy-naś-cie) lub jako oznaczenie tego wszystkiego, co po zmierzeniu daje wynik trzynaście (trzynaś cie złotych, trzynaście worków mąki itd.). Reprezentacja obrazowa i fonologiczna jest z natury powierzchniowa, czyli nietrwała, podczas gdy reprezentacja trzeciego rodzaju odwołuje się do znaczenia liczby trzynaście i jako część wiedzy semantycznej musi być uznana za trwałą. Pytanie, jaką formę przyjmują umysłowe reprezentacje liczb, wykracza więc poza dylemat: obraz czy słowo. Jest to problem istnienia specyficzności reprezentacji numerycznej, ale też pro blem relacji między reprezentacjami numerycznymi a innymi formami umysło wego odzwierciedlenia świata, a ponadto problem, czy reprezentacje numerycz ne mają charakter nietrwały, jak wyobrażenia, czy też trwały, jak elementy wiedzy. Moyer wraz ze współpracownikami (Moyer, Landauer, 1967; Moyer, Dumas, 1978) mierzył czas potrzebny do oceny identyczności lub odmienności liczb prezentowanych badanym. Osoba badana widziała dwie liczby, a jej za danie polegało na stwierdzeniu, czy ich wartości są identyczne (np. 5 i 5), czy też
2.3. Reprezentacje werbalne
87
nie (np. 5 i 8). Okazało się, że znacznie więcej czasu zajmuje porównywanie liczb o podobnej wielkości, a znaczniej mniej - liczb zdecydowanie różniących się wartościami. Na przykład czas porównywania liczb 2 i 8 był znacznie krótszy niż liczb 2 i 4. Zjawisko to nazwano efektem dystansu numerycznego. Podobne wyniki uzyskali m.in. Dehaene i Akhavein (1995). Efekt dystansu sugeruje, że przetwarzając liczby, człowiek tworzy przestrzenną reprezentację umysłową, w której liczby o zbliżonych wartościach są umiejscowione blisko siebie, a liczby o zdecydowanie różnych wartościach - daleko od siebie. Chcąc porównać dwie wartości, człowiek musi jak gdyby „spojrzeć” na ową przestrzenną reprezenta cję, a w przypadku, gdy dwa obiekty znajdują się blisko siebie, zmuszony jest „przybliżyć” sobie obraz. Taki „umysłowy zoom” wymaga oczywiście czasu, stąd efekt dystansu numerycznego. Człowiek zachowuje się więc w kontakcie z liczbami trochę tak, jak z wyobrażeniem dwóch przedmiotów o różnej wielkości. Szczegóły wyobrażenia królika są mało „widoczne”, jeśli królik jest w towarzystwie słonia (Kosslyn, 1983); tak samo różnica 2 i 4 wydaje się mało wydatna i aby ją stwierdzić, trzeba „przybliżyć” obraz i dokładniej się „przyjrzeć”. Wynika stąd, że reprezentacje numeryczne są po prostu obrazowe albo bardzo bliskie obrazowym. To z kolei prowadzi do wniosku, że repre zentacje te - podobnie jak obrazy umysłowe - mają nietrwały charakter, czyli są tworzone ad hoc w celu porównania dwóch wartości, dokonania obliczeń lub rozwiązania problemu. Jeśli tak, to po zakończeniu czynności poznawczej nietrwałe reprezentacje numeryczne po prostu zanikają, a kolejna czynność poznawcza wymagająca przetwarzania liczb musi powołać do życia nowy zbiór takich reprezentacji. Kolejne badania pokazały, że wprawdzie sam efekt dystansu numerycznego należy wiązać z przetwarzaniem w zakresie trwałych reprezentacji numerycz nych, jednak jego wielkość zależy od reprezentacji nietrwałych. Campbell (1994) pokazywał osobom badanym liczby albo w formacie cyfrowym (np. 13), albo w postaci napisanych słów (np. trzynaście). Wykazał, że werbalna repre zentacja liczb zmniejsza efekt dystansu numerycznego, choć go nie likwiduje. Gdyby słowna forma prezentacji liczb w niczym nie osłabiała efektu dystansu, można by wnioskować, że liczby są zawsze reprezentowane w umyśle w postaci wyobrażeń. Bez względu na to, w jakiej modalności dociera do nas informacja liczbowa, i tak jest przedstawiona w postaci obrazowo-przestrzennej, co spra wia, że stwierdzenie różnicy między 2 a 8 trwa krócej niż stwierdzenie różnicy między 2 a 4. Inaczej mówiąc, człowiek przedstawia sobie liczby w postaci obrazów, a obrazy - co wiadomo z badań Kosslyna nad mapami umysłowymi są podatne na efekt dystansu przestrzennego. Gdyby natomiast forma pre zentacji liczb całkowicie redukowała efekt dystansu, można by sądzić, że liczby są reprezentowane w umyśle w postaci amodalnych sądów (propositions). W takim kodzie reprezentacji nie ma najmniejszego znaczenia, czy porównu jemy liczbę 2 z liczbą 4, 6, 8, czy też 800. Liczba 2 różni się od wszystkich liczb większych od siebie, a stwierdzenie tego faktu powinno być łatwe i szybkie niezależnie od dystansu między porównywanymi wartościami. Wykrycie przez Campbella, że werbalny format liczb zmniejsza efekt dystansu, lecz całkowicie go nie znosi, sugeruje, że reprezentacje numeryczne są czymś pośrednim między obrazami a sądami, a - być może - stanowią odrębny format umysłowej re prezentacji świata.
oo
Rozdział
istota i torma reprezentacji umysłowycn
Propozycjonalny charakter reprezentacji numerycznych niczego nie prze sądza w kwestii ich trwałości lub nietrwałości. Sąd „dwa jest mniejsze niż osiem” może być elementem trwałej wiedzy semantycznej, ale równie dobrze może zostać wyprowadzony ad hoc i zniknąć zaraz po tym, jak przestanie być potrzebny. D oraźne utw orzenie takiego sądu wymaga przywołania trwałej wiedzy na temat, co to jest liczba i czym jest relacja większości/mniejszości, natom iast obie wartości, czyli 2 i 8, mogą powstać w wyniku kodowania obrazowego lub werbalnego. W zależności od tego, jaka modalność zmysłowa bierze udział w percepcji liczb, ich reprezentacja może mieć charakter obrazowy lub słowny. Łączne użycie nietrwałych reprezentacji konkretnych liczb oraz trwałych elementów ogólnej wiedzy na temat tego, czym jest liczba i czym są relacje między liczbami, skutkuje wyprowadzeniem sądu, że dwa jest mniejsze niż osiem. Sąd taki może już być amodalny, zgodnie z tym, co sugeruje Pylyshyn. W każdym razie spór o format reprezentacji numerycznych nie jest tym samym, co spór o ich trwałość. Według McCloskeya i Macaruso (1995), w procesie porównywania liczb ludzie zawsze odwołują się do głębokich, trwałych reprezentacji umysłowych. Autorzy argumentują, że poznawcze wykorzystanie liczby wymaga użycia trwale zakodowanej wiedzy o relacjach pomiędzy wartościami liczbowymi a pośrednio - o relacjach między wielkościami masy, objętości lub innych fizycznych cech przedm iotów, których abstrakcyjnymi odpowiednikami są liczby. Natomiast Campbell (1994) broni tezy, że liczby tworzą w umyśle re prezentacje nietrwałe, w dużym stopniu przypominające wyobrażenia prze strzenne. Zdaniem tego autora (Campbell, Clark, 1988; Clark, Campbell, 1991), reprezentacje numeryczne mają charakter analogowy, związany z modalnością, w jakiej informacje liczbowe docierają do systemu poznawczego, aby być dalej przetwarzane. Zatem reprezentacje numeryczne mogą być przetwarzane w modalności niewerbalnej (wzrokowej, słuchowej) lub werbalnej, ale są wzajemnie powiązane w złożone struktury, dzięki czemu możliwy jest transfer umiejętności w zakresie obliczeń numerycznych z jednego rodzaju reprezentacji na inny (Whetstone, McCloskey, 1994). Na przykład informacje liczbowe prezentowane wizualnie mogą być wykorzystane do udzielenia słownej odpowiedzi na pytanie. Ponieważ jednak są tutaj zaangażowane odrębne mo dalności, przetwarzanie tego rodzaju musi być podatne na zakłócenia i błędy znacznie większe niż w przypadku, gdy zaangażowana jest tylko jedna mo dalność. Jednak Dehaene, Bossini i Giraux (1993) nie znaleźli argumentów empirycznych świadczących na korzyść poglądów Campbella i Clarka. Nie zależnie od formy prezentacji liczb, obliczenia wykonywane przez osoby badane nie różniły się znacząco, jeśli chodzi o czasowe i poprawnościowe parametry wykonania. Istotą sporu pomiędzy McCloskeyem a Campbellem jest to, czy istnieją głębokie, trwałe i amodalne reprezentacje poznawcze w formie sądów o relacjach między liczbami, decydujące o przebiegu procesów przetwarzania informacji numerycznych. Spór ten nie odnosi się jedynie do reprezentacji numerycznych i ma znacznie głębszy sens teoretyczny. Problem pierwotności lub wtórności nietrwałych odzwierciedleń umysłowych względem reprezentacji trwałych będzie dyskutowany w kolejnym podrozdziale.
2.4. Pierwotność czy wtómość nietrwałych reprezentacji umysłowych
89
2.4. Pierwotność czy w tóm ość nietrwałych reprezentacji umysłowych 2.4.1. Hipoteza języka m yśli Różnorodność nietrwałych reprezentacji umysłowych ze względu na język kodowania danych zmysłowych wydaje się dobrze uzasadniona empirycznie i teoretycznie. Rodzi jednak dodatkowy problem przekładu jednej formy po wierzchniowej reprezentacji umysłowej na inną. Zasada referencjalności w kon cepcji podwójnego kodowania wydaje się trafna, ale wymaga określenia reguł odpowiedniości imagenów i logogenów w odniesieniu do tych samych obiektów rzeczywistych. Próbę rozwiązania tego problemu podjął Anderson (1978; Anderson, Bower, 1973), formułując hipotezę trzeciego języka kodowania, zwaną również hipotezą języka myśli (language of thought, LOT, albo mentalese). Hipoteza ta głosi, iż umysł ludzki nie gromadzi trwałej wiedzy ani w postaci obrazów, ani w postaci etykiet werbalnych, ale wyłącznie w postaci zbioru sądów (twierdzeń) o relacjach między obiektami. Kod twierdzeniowy, zwany też propozycjonalnym (propositions), ma postać abstrakcyjnych, amodalnych twierdzeń opisowych, zorganizowanych w sieć umożliwiającą odbiór, rozumie nie i przetwarzanie informacji. Sąd należałoby zdefiniować jako taką formę reprezentacji umysłowej, w której będą wyrażone relacje zachodzące pomiędzy obiektami (Chlewiński, 1999; zob. rozdz. 3). Na przykład myśl, że podręcznik leży na biurku, można przedstawić w postaci sądu: [na (podręcznik, biurko)].
W strukturze tego sądu da się więc wyróżnić relację, że jeden obiekt znaj duje się na drugim, a ponadto dwa obiekty związane ową relacją. Sądy mogą przybierać inną formę, w zależności od rodzaju relacji między obiektami. Oprócz sądów dotyczących relacji przestrzennych, wyróżnia się sądy o przynależności kategorialnej, np.: [jest to (kot, zwierzę)],
sądy o atrybutach, np.: [ma (kot, sierść)]
oraz sądy o działaniach, np.: [ukraść (złodziej, auto)].
W powyższych przykładach mamy do czynienia z sądami o prostej struk turze. Jednak dzięki abstrakcyjnej formie zapisu, kod propozycjonalny nadaje się do wyrażenia dowolnej relacji, wiążącej dowolnie dużo obiektów. Łączenie i przekształcanie sądów jest możliwe dzięki tzw. rachunkowi predykatów, który jest logicznym systemem przetwarzania zdań abstrakcyjnych. Elementem rachunku predykatów jest np. negacja. Dlatego myśl, że podręcznik leży pod biurkiem, a nie na nim, można zapisać w formie: [~ n a (podręcznik, biurko)],
90
Rozdział 2. Istota i forma reprezentacji umysłowych
co oznacza, że pierwotną relację „na” zanegowano, uzyskując relację „pod”. Negację można powtórnie zanegować, uzyskując sąd pierwotny; można też łączyć sądy spójnikami logicznymi, takimi jak koniunkcja, alternatywa itd. Dzięki rachunkowi predykatów można otrzymać sąd o dowolnym poziomie złożoności, wyrażający dowolną relację między dowolną liczbą obiektów. Ze zbioru sądów mogą być w zależności od potrzeb generowane nietrwałe reprezentacje umysłowe, zarówno słowne, jak i obrazowe. Jednak same sądy nie mają postaci słownej czy obrazowej, nie zależą też od rodzaju zaangażowanej modalności zmysłowej - są amodalne. Pogląd ten jest zgodny z bardziej umiarkowanymi tezami Kosslyna, który przecież uznawał konieczność istnienia głębokich, trwałych i niespecyficznych ze względu na modalność sensoryczną reprezentacji umysłowych, stanowiących podstawę konstrukcji analogowych reprezentacji obrazowych. Różnice w poglądach Kosslyna i Andersona dotyczą kwestii pierwotności lub wtórności poszczególnych rodzajów reprezentacji. Podczas gdy dla Kosslyna znacznie ważniejsze są nietrwałe reprezentacje obrazowe, mające bezpośredni wpływ na bieżące przetwarzanie informacji, dla Andersona podstawę stanowią reprezentacje trwałe i zarazem głębokie, bo z nich można utworzyć dowolną reprezentację powierzchniową. Hipoteza języka myśli zyskała uznanie z kilku powodów. Po pierwsze, za pomocą sądów można przedstawić każdy rodzaj informacji, a więc także opis słowny czy też zawartość obrazu, co sprawia, że postulowanie istnienia in nych kodów nie jest już potrzebne. Po drugie, sądy przechowują głębokie znaczenie informacji, pomijając jej powierzchniową, sensoryczną formę, a zapamiętywanie na podstawie głębokich reprezentacji umysłowych jest najskuteczniejszą formą trwałego przechowywania informacji (Craik, Lockhart, 1972; Craik, Tulving, 1975). W badaniach stwierdzono np., że znaczenie tekstu jest pamiętane znacznie lepiej od formy językowej, w jakiej tekst był prezentowany (Bransford, Barclay, Franks, 1972). Skoro zjawisko addytywności efektów zapamiętania przy wykorzystaniu kodu obrazowego i werbalnego (Paivio, Csapo, 1973) miałoby być argumentem na rzecz tezy o istnieniu dwóch nietrwałych kodów powierzchniowych, to wielokrotnie potwierdzona teza 0 znaczeniu głębokości przetwarzania dla efektywności zapamiętywania musi działać na rzecz hipotezy języka myśli. Po trzecie, sądy w naturalny sposób wspierają procesy myślenia i podejmowania decyzji, a najczęściej te procesy właśnie operują na reprezentacjach umysłowych. Precyzja i logika informacji zawartych w twierdzeniach sprawia, że reguły wyciągania wniosków przy operowaniu kodem propozycjonalnym są jednoznaczne, choć nie zawsze proste 1 łatwe do zastosowania. Fakt, że sądy można przekształcać z wykorzystaniem rachunku predyka tów, a także przyjęty sposób notacji sądów, nie znaczy bynajmniej, że według hipotezy języka myśli - reprezentacje umysłowe mają postać struktur lo gicznych. Jak zauważa R. Sternberg (1996), kod propozycjonalny jest konstruktem teoretycznym, przyjętym przez wielu psychologów poznawczych ze względu na związane z tym korzyści metodologiczne w opisie i wyjaśnianiu funkcjonowania umysłu. Ci sami psychologowie, którzy postulują istnienie kodu propozycjonalnego, odżegnują się najczęściej od tezy, jakoby sądy miały przybierać postać formuł logicznych. Cały sens hipotezy języka myśli sprowadza się do tego, że sądy przybierają postać swoistą - ani werbalną, ani obrazową -
2.4. Pierwotność czy wtómość nietrwałych reprezentacji umysłowych
91
a język logiki i rachunek predykatów to tylko wygodny sposób notacji tego typu reprezentacji świata w umyśle. 2.4.2. Teoria pierwotnych reprezentacji w formie zbioru sądów Pylyshyna W badaniach prowadzonych w paradygmacie rotacji mentalnych i skaningu umysłowego instrukcja eksperymentalna z reguły wymusza dokonanie przez osoby badane specyficznego przekształcenia, typowego dla obrazów; chodzi o przeglądanie, powiększanie lub rotowanie obiektu. Pojawia się wobec tego pytanie, czy wyniki tych badań nie są przypadkiem artefaktami, wywołanymi przez odpowiednio skonstruowane instrukcje eksperymentalne (Intons-Peterson, 1983; Pylyshyn, 1981; Rinck, Denis, 2004). Pylyshyn zrealizował swoje badania wspólnie z Bannonem (nieopublikowana rozprawa doktorska Bannona, omówiona w: Pylyshyn, 1981) w para dygmacie skaningu umysłowego z mapą wyspy jako zapamiętywanym obiektem. Uczestnikom zadawano pytania o położenie geograficzne (północ, południe, południowy wschód itd.) konkretnych obiektów na mapie. W pierwszym warun ku mogli oni wykorzystywać procesy postrzegania, mapa bowiem znajdowała się cały czas w zasięgu ich wzroku. Stwierdzono wtedy silną zależność (r = 0,50) czasu decyzji od odległości zadanego elementu od punktu fiksacji. W drugim warunku uczestnicy badania musieli sobie wyobrazić mapę, przy czym instrukcja nakazywała zwrócić uwagę na oba obiekty (punkt fiksacji oraz zadany element), nie sugerując, w jaki sposób należy to zrobić (np. że należy przenieść „plamkę” z jednego punktu do drugiego). W takim wariancie pro cedury nie stwierdzono związku między czasem decyzji a wzajemną odległością obiektów na mapie (r = -0,03). Jeśli więc instrukcja udzielona badanemu wymaga jedynie znalezienia się w odpowiednim miejscu względem punktu fik sacji, ale nie precyzuje, w jaki sposób można ten cel osiągnąć, wówczas zwią zek między czasem decyzji a odległością punktów na „skanowanej” mapie umysłowej zanika. Wynika stąd, że w słynnych badaniach nad rotacją, a zwłasz cza skaningiem umysłowym, uczestnikom, być może, zasugerowano, aby wyobrażali sobie ruch obiektu, który musi trwać odpowiednio do przebytego dystansu. Wniosek, iż wyobraźnia działa analogicznie do percepcji, a zwłaszcza analogicznie do prawdziwych manipulacji na obiektach, wydaje się więc po chopny. W innym badaniu Rinck i Denis (2004) polecili uczestnikom „przecha dzanie się” w wyobraźni po budynku muzeum, składającym się z 10 pokojów, w których rozmieszczono 24 obrazy znanych mistrzów (ryc. 2.3). Zgodnie z pa radygmatem skaningu umysłowego, badani najpierw zapamiętywali plan pomieszczeń (przez 30 min), a następnie już „w wyobraźni” pokonywali wyzna czone im odległości. Instrukcja wymagała np., aby odnaleźć dany obraz, wyjść z pokoju, przejść przez dwa sąsiednie pokoje i znaleźć się przed innym obrazem. Badani zgłaszali moment wykonania wymaganej czynności. Rinck i Denis manipulowali euklidesowym (fizycznym) oraz kategorialnym (liczba pokoi) dystansem, jaki trzeba było przebyć. Stwierdzili klasyczny dla stanowiska obrazowego efekt odległości - im większy fizyczny dystans do pokonania, tym
zfCj
tvQzaziai c. ístoia i rorma reprezentacji umysiowycn
dłuższy czas „odszukiwania” wskazanego w instrukcji miejsca. Okazało się jednak, że efekt odległości dotyczy również dystansu kategoriałnego: czas odszukiwania był tym większy, im więcej pokoi trzeba było przejść „w wyobraź ni”, niezależnie od dystansu fizycznego. O ile pierwszy wynik jest zgodny z przewidywaniami wyprowadzonymi z koncepcji obrazowych, o tyle wynik drugi świadczy raczej na korzyść stanowiska propozycjonalnego. Być może uczestnicy tego badania tworzyli reprezentacje przestrzeni w postaci sądów odzwierciedlających relacje między pokojami. Każdy pojedynczy sąd dotyczy relacji między pokojami sąsiednimi (np. „sala nr 2 jest na lewo od sali nr 3”), a sądy dotyczące innych par pokojów wymagają złożenia odpowiedniej liczby takich sądów pierwotnych. Nic więc dziwnego, że im większy dystans wyrażony liczbą pokoi, tym dłuższy czas decyzji. 1
1
1-------- 1 Gauguin
i--------1 Velazquez
van Gogh
Warhol
1
4
Brueghel i_____ i Rubens
2 I
I
i I
Klee r i!---- i1 -----------
Bosch
Marc
1___ _i Monet
1
9
1 !
1 Diirer
c Q
i !
Rafael Santi i| i-------- 1----
Goya
Nolde
Rembrandt 1 1 1 i ----------------
7
Miró U
3
i"" i Renoir
10
n Picasso
Dali iI---------------1 1 Michat Aniol 6
8 Kandinsky i i
da Vinci
Magritte
U
Macke i ■ i
Ryc. 2.5. Plan muzeum wykorzystany w badaniach nad pokonywaniem dystansu „w wyobraźni” (za: Rinck, Denis, 2004).
Intons-Peterson (1983) wprowadziła jeszcze inną manipulację instrukcją. Połowie uczestników badania sugerowała, że zadanie z zakresu skaningu umysłowego lepiej wykonywać w warunku percepcyjnym. Druga połowa bada nych dowiadywała się, że lepsze wyniki można uzyskać w warunku wyobraże niowym. Rodzaj zastosowanej instrukcji znalazł wyraźne odzwierciedlenie w wy nikach eksperymentu. W żadnej z dwóch grup nie stwierdzono funkcjonalnej ekwiwalencji percepcji i wyobraźni. Co więcej, badani rzeczywiście szybciej wykonywali zadanie w warunku eksperymentalnym, który przez badacza został wskazany jako ten, w którym można uzyskać lepsze wyniki. Część rezultatów badań Bannona i Pylyshyna, Intons-Peterson oraz Rincka i Denisa jest więc sprzeczna z teorią powierzchniowych reprezentacji umysło wych w formie obrazowej oraz z hipotezą ekwiwalencji percepcji i wyobraźni. Pylyshyn (1981) w swojej krytyce reprezentacji obrazowych posuwa się jeszcze
2.4. Pierwotność czy wtórność nietrwałych reprezentacji umysłowych
93
dalej, stwierdzając, że odzwierciedlenia wyobrażeniowe są epifenomenami, czyli realnie nie istniejącymi, z gruntu niesamodzielnymi „zdarzeniami” mentalnymi; prawdziwie istniejące są tylko reprezentacje wyrażone w kodzie propozycjonalnym. Sądzi, że efekty eksperymentalne uzyskane przez zwolenników koncepcji obrazowej są artefaktami, wynikającymi z zastosowania sugerującej instrukcji dla osób badanych. Według Pylyshyna (1973, 1981), reprezentacja umysłowa jest abstrakcyjną strukturą poznawczą, w której odzwierciedlone są relacje, jakie zachodzą między obiektami i wydarzeniami w otaczającej nas rzeczywistości. Reprezentacje obrazowe Kosslyna i sensoryczne obrazy Paivio są, zdaniem Pylyshyna, zjawiskami wtórnymi wobec właściwych reprezentacji umysłowych, powstając w wyniku przetwarzania tych ostatnich. Logogeny Paivio są już bliższe reprezentacjom umysłowym w przekonaniu Pylyshyna, ale przez swoją konkretność i modalność bardziej pasują do powierzchniowych reprezentacji umysłowych w formie obrazów sensorycznych niż do amodalnych i abstrakcyjnych odzwierciedleń otaczającej nas rzeczywistości. Odmienność poszczególnych koncepcji reprezentacji dobrze ilustruje taki oto przykład. Kosslyn (1983) twierdzi, że reprezentacja umysłowa szachownicy ma postać obrazu naprzemiennie ułożonych pól czarnych i białych. Zdaniem Paivio (1986), reprezentacją umysłową szachownicy może być albo jej sensoryczny obraz (jak u Kosslyna), albo werbalny opis koloru poszczególnych pól. We dług Pylyshyna (1981), reprezentacja szachownicy to nic innego, jak zbiór sądów (twierdzeń) dotyczących charakteru pól (czarne lub białe) i ich lokalizacji w obrębie matrycy 64 pól zdefiniowanych przez litery i cyfry (G3, A8 itd.). Pylyshyn (1981) uważa więc, że poszczególne obiekty są reprezentowane w umyśle nie samodzielnie, ale jako część twierdzenia o wzajemnej relacji dwóch obiektów, przy czym relacje przestrzenne to tylko jedna z wielu możliwości. Na przykład wyobrażając sobie mapę Europy, „widzimy”, że Ho landia znajduje się na zachód od Niemiec, a Niemcy - na zachód od Polski. Jeśli kosslynowski punkt fiksacji wypada na Ukrainie, która na zachodzie graniczy z Polską, odpowiedź na pytanie, co jest położone dalej od Ukrainy: Holandia czy Niemcy, wymaga rozważenia większej liczby twierdzeń niż odpowiedź na pytanie, czy dalej od Ukrainy jest Polska, czy też Niemcy. W drugim przypadku wystarczy rozważyć tylko dwa twierdzenia: [leży na zachód od (Polska, Ukraina)],
oraz [leży na zachód od (Niemcy, Polska)],
podczas gdy w pierwszym przypadku do dwóch powyższych sądów trzeba dodać trzeci: [leży na zachód od (Holandia, Niemcy)].
Jest oczywiste, że im więcej sądów, tym więcej czasu potrzeba na ich przetworzenie, dlatego czas decyzji jest dłuższy, gdy porównywane elementy leżą dalej na mapie. Jeśli jednak efekt odległości nie ujawni się w badaniach, co czasem się zdarza, trzeba wnioskować, iż w takiej sytuacji wszystkie obiekty są
Ol
nU£U£ldl
Ca .
is iu ia
l
l u m ia
icpicz,cniacji uniyoiuwyou
powiązane bezpośrednimi relacjami definiującymi ich wzajemne położenie w przestrzeni. Jeśli np. ktoś dysponuje gotowym, utrwalonym sądem o treści: [leży na zachód od (Holandia, Ukraina)],
wówczas odpowiedź na pytanie o położenie dwóch obiektów wymaga prze tworzenia tylko jednego sądu, co oznacza, że na podjęcie decyzji trzeba zużyć tę samą ilość czasu niezależnie od rzeczywistej lub wyobrażonej odległości dwóch obiektów. Jak widać, kod propozycjonalny jest bardziej uniwersalnym sposobem zapisu poznawczych reprezentacji świata niż kod werbalny, a zwłaszcza obra zowy. Jest też lepiej dopasowany do zaobserwowanych danych empirycznych, ponieważ dobrze wyjaśnia zarówno to, co jest wyjaśnialne z odwołaniem się do kodu obrazowego, jak również to, z czym stanowisko obrazowe zupełnie sobie nie radzi. Rozważmy np. problem wpływu złożoności reprezentacji umysłowej na czas potrzebny do wykorzystania tej reprezentacji w jakiejś czynności poznawczej. Liczba sądów potrzebnych do opisu bardziej złożonych relacji jest oczywiście znacznie większa niż liczba twierdzeń niezbędnych do ujęcia relacji prostych. Trudniej nam stwierdzić istnienie jakiegoś szczegółu w bardzo złożonym obiekcie, bo trzeba w tym celu rozważyć znacznie więcej twierdzeń niż w przypadku obiektu prostego. Na przykład, badając „w wyobraźni” mapę Europy, znacznie trudniej nam zdecydować, czy Bytom leży na Górnym Śląsku, a łatwiej - czy Bielsko znajduje się na Podbeskidziu. Oba miasta są porów nywalnej wielkości, ale Bytom jest jednym z wielu dużych miast w aglomeracji Górnego Śląska, podczas gdy na Podbeskidziu nie ma drugiego tak dużego miasta jak Bielsko. Efekt ten można wytłumaczyć liczbą niezbędnych do prze tworzenia sądów, a nie żadnym „zoomem mentalnym”. Możliwe też, że do wygenerowania wyobrażenia małych elementów badani wykorzystują mniejszą liczbę twierdzeń, przez co szczegóły obiektu nie są łatwo dostępne; należy wówczas przeanalizować znacznie większą liczbę twierdzeń ogólnych bądź też związanych z możliwymi transformacjami małego elementu, aby dokonać poprawnej jego identyfikacji lub podjąć trafną wobec niego decyzję. Widzimy więc, że w celu wyjaśnienia zależności stwierdzonych w badaniach metodami skaningu umysłowego nie trzeba koniecznie odwoływać się do istnienia obrazów umysłowych oraz funkcjonalnej ekwiwalencji percepcji i wyobraźni, tym bardziej że zależności te mogą być po prostu artefaktami, wynikającymi z przyjętej instrukcji eksperymentalnej (Pylyshyn, 1981; Intons-Peterson, 1983). Pogląd Pylyshyna dotyczący wtórnego charakteru wszelkich „obrazów mentalnych” wydaje się jednak zbyt skrajny, podobnie zresztą jak pogląd Kosslyna dotyczący dominującej roli obrazów w kodowaniu informacji. Trudno w świetle przedstawionych w tym podrozdziale wyników badań nie zgodzić się z twierdzeniem, iż obrazy umysłowe nie są jedyną formą reprezentacji danych sensorycznych. Wyniki te są więc sprzeczne z koncepcją Kosslyna o tyle, o ile przyjmie się jego tezę, iż reprezentacje umysłowe w formie obrazu są konieczną formą kodowana danych zmysłowych. Trzeba raczej przyjąć, że obrazy są jedną z wielu form reprezentacji, i to bynajmniej nie obligatoryjną. Inne formy to reprezentacje werbalne (Paivio) i reprezentacje w formie zbioru sądów (Py lyshyn), które podlegają zupełnie innym prawom użycia i przetwarzania niż obrazy umysłowe. Nasuwa się wniosek, że trzy rodzaje reprezentacji umysło
2.4. Pierwotność czy wtórność nietrwałych reprezentacji umysłowych
95
wych: obrazowe, werbalne i propozycjonalne, powstają i zanikają w zależności od wymagań sytuacji zadaniowej i naszych osobistych preferencji.
2.4.3. Teoria modeli m entalnych Johnson-Lairda Nietrwałe, powierzchniowe reprezentacje poznawcze, tworzone na potrzeby bieżącego przetwarzania informacji, mogą przyjmować jeszcze jedną postać. Oprócz obrazów, słów i sądów umysł ludzki generuje tzw. modele mentalne, czyli nietrwałe reprezentacje słowno-obrazowe o dość dużym poziomie złożoności. Powstają one zwykle w toku procesu myślenia lub rozumowania jako sposób na przedstawienie sobie w umyśle istoty problemu, a zwłaszcza składających się nań zależności. Wnikliwą analizę tego typu reprezentacji prze prowadził w swojej koncepcji modeli mentalnych Philip Johnson-Laird (1983). Teoria ta wyrosła na gruncie badań nad wnioskowaniem. Zasadnicza teza autora brzmi, iż wnioskowanie nie jest formalnym procesem syntaktycznym, ale procesem semantycznym, którego przebieg zależy od wyobrażonych stanów analizowanej sytuacji. Innymi słowy, przebieg i efekty wnioskowania zależą od modelu sytuacji, a więc od sposobu reprezentowania problemu w umyśle osoby zmagającej się z nim. Wnioskowanie obejmuje trzy główne operacje. W pierwszej kolejności czło wiek buduje w umyśle wyobrażenie stanu rzeczy, o jakim jest mowa w prze słankach. W ten sposób powstaje mentalny model sytuacji, oparty zarówno na znaczeniach zawartych w przesłankach, jak i na wiedzy ogólnej. Taki model jest zawsze uproszczoną reprezentacją problemu, często błędną i wewnętrznie nie spójną, gdyż zazwyczaj - z punktu widzenia logiki formalnej - treść przesłanek można sobie przedstawić w różny sposób. Na przykład przesłankę: Każdy psycholog jest mędrcem,
można rozumieć na wiele sposobów: że poza psychologami jest cała masa mędrców niepsychologów, że mędrców niepsychologów jest naprawdę niewielu, wreszcie - że każdy mędrzec jest psychologiem. Z logicznego punktu widzenia każde z tych stwierdzeń jest poprawnym uszczegółowieniem treści przesłanki, ale psychologicznie rzecz ujmując, są to stwierdzenia dość odrębne. Im bardziej złożona przesłanka, tym więcej modeli mentalnych można na jej podstawie zbudować. Im więcej zaś możliwych do zbudowania modeli, tym łatwiej o po myłkę we wnioskowaniu, ponieważ pomyłka może wynikać z tego, że w swoim umysłowym przedstawieniu treści przesłanek nie uwzględniliśmy wszystkich możliwości. W drugim etapie wnioskowania mentalny model przesłanek staje się punktem wyjścia do wyprowadzenia próbnych wniosków, zgodnych z przyjętym modelem. Ostatni etap wnioskowania polega na budowaniu alternatywnych modeli umysłowych, które mogłyby ewentualnie sfalsyfikować wyciągnięte wnioski i skorygować ostateczną konkluzję. Modele umysłowe danego obiektu, sytuacji czy zjawiska są tworzone ad hoc, na potrzeby rozwiązania konkretnego problemu. Może się więc okazać, iż ta sama osoba, na potrzeby dwóch różnych zadań, utworzy dwa całkowicie od mienne modele tego samego obiektu lub zjawiska. Ta zadziwiająca własność modeli umysłowych ujawnia się szczególnie wyraźnie w badaniach nad naiwny
yb
Rozdział 2. Istota i forma reprezentacji umysfowycn
mi teoriami zjawisk czy obiektów (zob. rozdz. 11.2.2). Z punktu widzenia sporu o naturę reprezentacji umysłowych najważniejsze jest twierdzenie Johnson-Lairda (1983), iż nietrwałe modele mentalne powstają zarówno na bazie spostrzeżeń i wyobrażeń, a więc nietrwałych reprezentacji umysłowych, jak i na bazie wiedzy, a więc reprezentacji trwałych. W tym ujęciu żadna forma re prezentacji nie jest przypadkowym bytem pozbawionym znaczenia - wszystkie biorą ważny udział w tworzeniu modelu stanowiącego materiał dla bieżących procesów przetwarzania informacji. Modele mentalne należy zatem uznać za osobną formę nietrwałej reprezentacji świata w umyśle, wyróżnioną ze względu na mieszany, obrazowo-pojęciowy charakter, jak też ze względu na stosunkowo wysoki poziom złożoności. Typowy model umysłowy jest bowiem czymś znacznie bardziej złożonym niż obraz, etykieta werbalna czy nawet twierdzenie. 2.4 .4 . Stanow isko eklektyczne w sporze o kod reprezentacji um ysłow ych Co wynika z przedstawionego w tym rozdziale sporu o naturę i formę repre zentacji świata w umyśle? Czy możliwe jest sformułowanie jakiejś konkluzji popartej wynikami badań empirycznych? Wydaje się, że zadania.z zakresu rotacji mentalnych, w których wykorzys tuje się wyłącznie materiał niewerbalny (rysunki, figury, rzuty figur na płaszczyznę), wymagają raczej wyobrażeń w postaci obrazów sensorycznych (Kosslyn, Paivio). Z kolei zadania z zakresu weryfikacji sylogizmów, wykorzys tujące materiał werbalny, wymagają raczej reprezentacji w postaci etykiet słownych (Paivio) lub nawet głębszych reprezentacji umysłowych w postaci zbioru abstrakcyjnych twierdzeń i sądów o relacjach (Pylyshyn). Natomiast zadania z zakresu skaningu umysłowego mogą być rozwiązywane zarówno w obrazowej, jak i werbalnej formie reprezentacji powierzchniowych; mogą wymagać udziału trwałych reprezentacji w formie sądów o relacjach bądź ich nie wymagać. Wyniki przedstawionych w tym rozdziale badań nie mogą więc być interpretowane na korzyść żadnej ze skrajnych teorii reprezentacji umysłowych. Każde skrajne ujęcie można łatwo sfalsyfikować, przedstawiając wyniki badań eksperymentalnych, których nie da się w jego ramach zrozumieć. Każdy człowiek zapewne dysponuje różnymi reprezentacjami umysłowymi tych samych obiektów. Ten sam przedmiot, osoba lub sytuacja mogą być przedstawione w postaci obrazu, etykiet werbalnych lub zbioru twierdzeń. W zależności od rodzaju stymulacji, kontekstu lub fazy rozwiązywania pro blemu, człowiek tworzy ad hoc i wykorzystuje obrazową, werbalną lub propozycjonalną formę reprezentacji; niekiedy też buduje złożony model mentalny sytuacji lub problemu. Kod obrazowy jest charakterystyczny dla początkowych faz rozwiązywania zadań, polegających głównie na przyswajaniu informacji, podczas gdy kod werbalny lub propozycjonalny działa raczej w późniejszych fazach, gdy należy dokonać logicznych przekształceń lub innych złożonych operacji umysłowych. Być może o wyborze rodzaju reprezentacji umysłowej w przetwarzaniu danych decydują osobiste preferencje jednostki. Gdy rodzaj zadania lub jego instrukcja nie określa jednoznacznie pożądanego rodzaju reprezentacji umysłowych, wtedy o ich wyborze decydują właśnie
2.5. Podsumowanie
97
indywidualne strategie lub preferencje. Ostatecznie w sporze o istotę i rodzaje reprezentacji umysłowych należałoby przyjąć stanowisko eklektyczne (Ander son, 1995), dopuszczające możliwość istnienia wielu różnych form kodowania świata w umyśle.
2.5. Podsumowanie Jak zauważył Anderson (1978, s. 250), „żadne twierdzenie na temat danej reprezentacji nie jest możliwe, dopóki nie wyszczególni się procesu, jaki ma na tej reprezentacji przebiegać”. Próbując zatem odpowiedzieć na dwa pytania Pylyshyna, sformułowane na początku tego rozdziału, nie można w istocie uniknąć błędnego koła. Z jednej strony trudno wypowiadać się o przebiegu procesów przetwarzania informacji, nie definiując najpierw natury i formy reprezentacji umysłowych, na których procesy te operują. Z drugiej strony rów nie trudno jest omawiać strukturę i formę reprezentacji umysłowych w oder waniu od konkretnych czynności poznawczych, które się na tych reprezen tacjach dokonują. Mimo tego zagrożenia, pewne wnioski na temat reprezentacji świata w umyśle wydają się możliwe. Reprezentacje dzielą się na trwałe i nietrwałe. Te pierwsze tworzą struktury wiedzy, podczas gdy te drugie powsta ją w związku z koniecznością wykonania konkretnej czynności poznawczej (np. podjęcia decyzji, wypracowania odpowiedzi na pytanie, rozwiązania problemu), po czym zanikają. Nietrwałe reprezentacje poznawcze, zwane też powierzch niowymi, mogą przyjmować postać obrazów umysłowych, etykiet słownych, sądów o relacjach między obiektami czy też złożonych modeli umysłowych konkretnej sytuacji lub problemu. Powszechnie obowiązującą zasadą funkcjo nowania umysłu jest założenie, że ten sam obiekt może być reprezentowany w różnym formacie, np. obrazowym i słownym, a o użyciu określonej formy reprezentacji decydują czynniki sytuacyjne (np. kontekst, polecenie, instrukcja, rodzaj napływającej stymulacji) lub trwałe preferencje indywidualne.
R ozd ział
Pojęcia i schematy
Konstrukt reprezentacji pojęciowej
99
Istota i funkcje reprezentacji pojęcio wych 99 Ogólne właściwości pojęć
100
Pojęcia m atrycow e i naturalne
102
S truktura i funkcjonow anie reprezentacji pojęciowych 103 Teorie klasyczne
103
Teorie probabilistyczne Teorie prototypów Teorie egzem plarzy
112 123
Porównanie koncepcji reprezentacji po jęciowych 125 Dynamiczna koncepcja umysłu, czyli o re lacjach między pojęciami 126 Teorie sieci semantycznej Złożone struktury sieciowe Teoria schem atów Teoria ram
126 128
129
132
Teoria planów, scen i tem atów 108
133
Porów nanie koncepcji stru k tu r siecio wych 134 Podsumowanie
135
Pojęcie to poznawcza reprezentacja zbioru obiektów, np. kategorii natural nych (owoce), sztucznych (liczba rzeczywista) lub hipotetycznych (UFO). Schemat poznawczy to złożona forma reprezentacji umysłowej, obejmująca zarówno sens typowej sytuacji (obiad w restauracji), jak i znaczenie typowych form zachowania (jedzenie, płacenie), jakie powinny być wygenerowane w reakcji na tę typową sytuację. Według anegdoty pewien prowincjusz odwiedził ogród zoologiczny. Zatrzymał się przy wybiegu dla żyraf, długo się im przyglądał, po czym stwierdził: „Takiego zwierzęcia nie ma!”. Anegdota jest zapewne zmyślona, ale dobrze oddaje psychologiczny sens i funkcję pojęć: jeśli brakuje umysłowej reprezentacji pew nego fragmentu rzeczywistości, fragment ten zdaje się nie istnieć. Stan umysłu, któremu brakuje adekwatnych reprezentacji pojęciowych, oddają takie okreś lenia języka potocznego, jak to, że coś się „nie mieści w głowie” albo że na coś „brak słów”. W tym rozdziale omówimy trwałe reprezentacje poznawcze, jakimi są pojęcia i schematy. Przedmiotem analizy będą rodzaje pojęć, ich struktura i nabywanie oraz wpływ na aktywność poznawczą człowieka. Osobny podroz dział poświęcimy analizie schematów poznawczych jako struktur utworzonych z pojęć.
3.1. Konstrukt reprezentacji pojęciowej 3.1.1. Isto ta i funkcje re p reze n ta cji pojęciow ych Pojęcia (concepts) są sposobem reprezentacji świata w naszym umyśle (zob. rozdz. 2). Są schematycznymi reprezentacjami zbiorów rzeczywistych obiektów, stanowiąc dla nich nadrzędną kategorię umysłową, punkt odniesie nia, konieczny do ich identyfikacji i rozróżnienia w ramach różnych kategorii. Problemy z rozpoznawaniem obiektów często wynikają z braku odpowiednich reprezentacji umysłowych. W myśl powyższej anegdoty, prowincjusz nie był w stanie sklasyfikować żyrafy jako egzemplarza (desygnatu, przedstawi ciela) nadrzędnej kategorii zwanej zwierzętami, gdyż ta właśnie kategoria umysłowa była w jego przypadku reprezentacją jedynie tych zwierząt, z który mi zetknął się on w swoim doświadczeniu i których szyje, w przeciwieństwie do szyi żyrafy, były proporcjonalne do reszty ich ciał. Zaburzenie tej pro porcji u żyrafy, a więc niespełnienie przez nią istotnej właściwości kryterialnej, uniemożliwiło prowincjuszowi potraktowanie nowo napotkanego w ogro dzie zoologicznym obiektu jako podobnego do innych obiektów klasy zwierząt. Schematyczna struktura reprezentacji pojęciowych wyraża się poprzez relację koniunkcyjną („a i b ”) lub dysjunkcyjną („a albo b ”) istotnych właściwości (a, b) obiektów, trwale odzwierciedlanych przez system poznawczy (Lewicki, 1968; Smith, Shoben, Rips, 1974). Pojęcia można więc definiować jako zbiory cech powiązanych znaczeniowo lub funkcjonalnie (Obuchowski, 1970). Zbiór obiektów może również zostać odzwierciedlony schematycznie,
100
Rozdział 3. Pojęcia i schematy
w sposób uproszczony, przez pojedynczy egzemplarz danej kategorii, jeśli charakteryzuje się on właściwościami typowymi bądź dystynktywnymi dla danej kategorii obiektów (Reed, 1971; Rosch, 1978). Reprezentacje pojęciowe przyjmują postać głębokich, trwałych odzwierciedleń obiektów rzeczywistych. W przeciwieństwie do reprezentacji nietrwałych, wyobrażonych (np. w obrazach umysłowych czy w etykietach werbalnych; zob. rozdz. 2), są niezależne od formy zmysłowej i właściwości zmysłu, którym obiekty reprezentowane w ramach pojęcia są spostrzegane. Reprezentacje pojęciowe mają więc charakter amodalnych sądów o relacjach zachodzących pomiędzy właściwościami obiektów rzeczywistych. Pojęcia zapewniają systemowi poznawczemu ekonomię funkcjonowania, działając w zgodzie z priorytetową dla tego systemu zasadą „skąpca poznaw czego” (zob. rozdz. 1). Rola reprezentacji pojęciowych jest tu zbliżona do podstawowej funkcji uwagi - selektywności (zob. rozdz. 5). Zadaniem uwagi jest jednak przede wszystkim ograniczenie ilości docierających do nas informacji i wybór do dalszego przetwarzania tylko tych, które z punktu widzenia systemu poznawczego są ważne. Dzięki reprezentacji tych informacji w umyśle przez rozbudowany system pojęć, możliwe jest znaczne ograniczenie różnorodności danych docierających do umysłu. Jak twierdzą Rosch i współ pracownicy (1976, s. 382): „[...] jedną z najbardziej podstawowych funkcji wszystkich organizmów jest ujmowanie otoczenia w klasyfikacjach, które pozwalają traktować bodźce nieidentyczne jako równoważne”. W ramach każdej kategorii poszczególne desygnaty mogą bowiem znacznie się różnić, nadal będąc zaliczane do przedstawicieli danego pojęcia. Na przykład różnice, pomiędzy egzemplarzami powszechnie używanej kategorii pojęciowej „samo chód” są znaczne, jednak kierujący ruchem drogowym nie mają żadnych kłopotów z odróżnianiem desygnatów tej właśnie kategorii od innych uczestników ruchu drogowego. Podobnie nawet tak precyzyjnie zdefiniowane kategorie pojęciowe, jak „trójkąt” (figura płaska, zamknięta, o sumie kątów wynoszącej 180° kątowych) posiadają egzemplarze znacznie różniące się od siebie (trójkąt równoramienny i trójkąt rozwartokątny). W konsekwencji, w przypadku przynajmniej niektórych reprezentacji pojęciowych, poszczególne desygnaty wydają się lepszymi bądź gorszymi przedstawicielami nadrzędnej kategorii. Jednak, pomimo tej różnorodności, zaliczenie ich do wspólnej kategorii nadrzędnej sprawia, że możliwe jest konsekwentne, niezróżnicowane zachowanie wobec wszystkich przedstawicieli tej kategorii, niezależnie od ich różnorodności. Dlatego też policjant może ukarać mandatem za szybką jazdę zarówno kierowcę małego fiata, jak i prowadzącego porsche, zaś do obliczenia pola dowolnego trójkąta wystarcza znajomość długości podstawy i wysokości tej figury, a niekonieczna staje się wiedza dotycząca stopnia rozwartości naj większego kąta.
3 .1.2. Ogólne w łaściw ości pojęć Reprezentacje pojęciowe mogą mieć charakter zarówno indywidualny, jak i ogólny. Przykładem pojęcia ogólnego jest pojęcie samochodu. Przykładem po jęcia mniej ogólnego, a bardziej zindywidualizowanego jest pojęcie samochodu
3.1. Konstrukt reprezentacji pojęciowej
101
przekraczającego przepisy ruchu drogowego, zaś pojęcia zupełnie jednostkowe go - pojęcie własnego samochodu. Reprezentacje pojęciowe charakteryzuje więc różny stopień ogólności, czyli różny stopień redukcji różnorodności wśród obiektów odzwierciedlanych przez dane pojęcie. Im bardziej ogólne jest pojęcie, tym bardziej jest ono zbiorem właściwości typowych. Jednocześnie wraz ze wzrostem ogólności pojęcia rośnie wielkość zbioru jego desygnatów. Wyprzedzając nieco rozważania dotyczące wzajemnych relacji między pojęcia mi, można już teraz stwierdzić, że pojęcia tworzą złożoną strukturę, opartą na zasadzie hierarchii ogólności - pojęcia podrzędne, np. własny samochód, są podporządkowane pojęciom nadrzędnym, np. samochód, zgodnie z zasa dą inkluzywności właściwości i desygnatów (Collins, Loftus, 1975; Loftus, Loftus, 1975). Proces redukowania różnorodności w ramach danej reprezentacji pojęcio wej odbywa się poprzez kategoryzację obiektów. Proces kategoryzacji (categorization) polega na łączeniu obiektów w grupy charakteryzujące się ze stawem wspólnych właściwości. Taką właściwością dla samochodów jest to, że poruszają się dzięki własnemu napędowi (w sensie „same jeżdżą”) po dro gach publicznych. Warto podkreślić, iż reprezentacja językowa (etykieta wer balna „samochód”), będąca konsekwencją uchwycenia pewnych wspólnych właściwości grupy obiektów domagających się wspólnego określenia, nieko niecznie musi mieć coś wspólnego z reprezentacją pojęciową, dla której jest nazwą. W przypadku pojęcia „samochód” reprezentacja językowa uwzględ nia ważną właściwość kategoryzowanych obiektów, ale często zdarza się, iż etykieta werbalna ma charakter wyłącznie arbitralny i nie wskazuje na żadne głębsze właściwości grupy określanych przez nią desygnatów. Na przy kład angielska etykieta bus dla oznaczenia autobusów związana jest bardziej z charakterystycznym odgłosem wydawanym przez starsze modele tych środków transportu niż z jakąkolwiek istotną właściwością przedstawicieli tej kategorii. Reprezentacje pojęciowe rozwijają się i doskonalą w ciągu życia człowieka, gromadzącego doświadczenia indywidualne i stojącego wobec różnorodnych wymagań sytuacji. Są więc zależne od kontekstu ich nabywania i stosowania (McCloskey, Glucksberg, 1978; Murphy, Medin, 1985). Mieszkaniec tybetań skiej wioski, który nigdy w życiu nie widział samochodu, samodzielnie raczej nie stworzy odpowiedniej reprezentacji pojęciowej. Z kolei większość mieszkańców Europy, poruszająca się wygodnie samochodami, nie stworzyła sobie reprezen tacji pojęciowej tybetańskiego jaka. Brak bowiem bodźców (odpowiedniego kontekstu dla procesu uczenia się) nie daje podstawy do wytworzenia reprezentacji pojęciowej. Reprezentacje pojęciowe mogą też być zróżnicowane w odmienny sposób ze względu na warunki, w jakich się kształtują. Na przykład mieszkaniec Grenlandii dysponuje siedmioma reprezentacjami śniegu w za leżności od jego zastosowania (igloo, lodówka itp.), podczas gdy dla większości mieszkańców Europy śnieg ma tylko jedno trwałe odzwierciedlenie w systemie poznawczym. Powyższe przykłady wydają się potwierdzać jeszcze średniowieczną koncepcję reprezentacjonizmu Ockhama (za: Kemp, 1998). Zgodnie z nią, głę bokie reprezentacje wprawdzie mogą funkcjonować w oderwaniu od doświad czenia obiektów rzeczywistych, jednakże ich doświadczenie jest z pewnością
102
Rozdział 3. Pojęcia i schematy
niezbędne w procesie nabywania tych reprezentacji. Koncepcję tę w psychologii rozwijali zwłaszcza zwolennicy asocjacjonizmu (np. Titchener), a raczej prze ciwni jej byli zwolennicy gestaltyzmu (np. Wertheimer, Kulpę). Ci ostatni opowiadali się za istnieniem pojęć nieobrazowych, niepochodzących z doświad czenia percepcyjnego (Maruszewski, 1983).
3.1 .3 . Pojęcia m atrycowe i naturalne Pojęcia dzielimy na matrycowe i naturalne. Pojęcia matrycowe (classical concepts) są jasno określone (zdefiniowane). Stanowią poznawczą reprezenta cję skończonej liczby cech wspólnych wszystkim desygnatom, które w jedna kowym stopniu przysługują wszystkim egzemplarzom pojęcia. Przykładem pojęcia matrycowego jest „trójkąt”. Trzema cechami przysługującymi w jed nakowym stopniu wszystkim trójkątom są: (1) bycie figurą płaską; (2) bycie figurą zamkniętą; (3) posiadanie trzech kątów o sumie stopni kątowych wynoszącej 180. W świetle tej definicji nie ma sensu mówić o bardziej i mniej typowych trójkątach, bo wszystkie trójkąty spełniają tę definicję w jednakowym stopniu. Bez wątpienia, dla matematyka trójkąt równoboczny i rozwartokątny są równie dobrymi desygnatami trójkątów, jak każdy inny przedstawiciel tej kategorii figur. Pojęcia matrycowe (inaczej sztuczne) dominują w języku nauki, bywają zresztą określane jako „naukowe” lub „arystotelesowskie” (Trze biński, 1986). To właśnie Arystoteles zapoczątkował definiowanie obiektów poprzez wskazanie najbliższego rodzaju i specyficznej różnicy. Najbliższy rodzaj to kategoria nadrzędna w stosunku do obiektu definiowanego, czyli najbliższa pod względem poziomu abstrakcji, ale nazbyt ogólna. Natomiast specyficzna różnica to cecha, która wyróżnia definiowany obiekt spośród innych przed stawicieli tej kategorii. Na przykład określenie człowieka jako „zwierzęcia rozumnego” zawiera najbliższy rodzaj: „zwierzę” i specyficzną różnicę: „rozumne”. Pojęcia naturalne (natural kind concepts) są mniej precyzyjnie określone i w związku z tym mogą mieć bardziej indywidualny charakter. Wprawdzie stanowią one także poznawczą reprezentację skończonej liczby cech, jednak cechy te w różny sposób przysługują poszczególnym desygnatom pojęcia. Stąd też każde pojęcie naturalne posiada bardziej i mniej typowe desygnaty; podobnie - cechy definiujące daną reprezentację pojęciową mogą być mniej lub bardziej typowe. Wróbel jest bardzo typowym ptakiem, a kura nim nie jest, chociażby z tego powodu, że lata z wielkim trudem (Rosch, 1978). Pojęcia naturalne do minują w tworzeniu potocznej reprezentacji świata w umyśle, podlegają czasami zmianom na skutek kontaktu z innymi desygnatami danego pojęcia. Zmienność i zależność od doświadczenia i kontekstu sytuacyjnego wyraźnie odróżnia pojęcia naturalne od pojęć matrycowych. Warto jednak zauważyć, że ta sama reprezentacja może być pojęciem ma trycowym dla pewnej grupy ludzi a naturalnym dla innej. Opisany powyżej przykład pojęcia „trójkąt” posłużył jako ilustracja dla pojęć sztucznych. Matrycowym pojęciem trójkąta posługują się prawdopodobnie tylko przedsta wiciele nauk ścisłych. Tymczasem zdecydowana większość ludzi uważa, że pewne trójkąty są bardziej typowe (są lepszymi przedstawicielami kategorii
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
103
„trójkąt”), podczas gdy inne są mniej typowe (są gorszymi jej przedstawi cielami). Na przykład trójkąt równoboczny lub prostokątny są często uważane za lepszych przedstawicieli swojej kategorii, niż trójkąt o kącie rozwartym po wyżej 120°. Można o tym wnioskować na podstawie obserwacji procesu kate goryzacji - osobom badanym z reguły mniej czasu zajmuje identyfikacja „typo wego” trójkąta jako desygnatu swojej klasy niż identyfikacja przedstawiciela „nietypowego”. „Typowe” trójkąty otrzymują także wyższe oceny w rankin gach typowości, pod warunkiem że oceny nie dokonują przedstawiciele nauk ścisłych.
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych 3.2.1. Teorie klasyczne
\ f j ( j I i ! I j
( | | I Ę i j \ [■ I
Według teorii klasycznych (classical view) pojęcie jest syntetycznym opisem pewnej klasy desygnatów, a nie zbiorem opisów różnych podzbiorów albo po jedynczych egzemplarzy danej klasy (Bruner, Goodnow, Austin, 1956; Lewicki, 1960, 1968; Loftus, Loftus, 1975). Pojęcie jest reprezentacją zbioru obiektów, uwzględniającą wszystkie istotne właściwości tego zbioru. O właściwościach mówimy, że są istotne, jeśli się powtarzają. Właściwością taką jest więc ta cecha, która występuje u wszystkich obiektów należących do zbioru. Istotną właściwością zbioru psów jest to, że wszystkie bez wyjątku wydają głos (i to specyficzny w postaci szczekania), a nie jest nią posiadanie ogona (pewne rasy mają ogon zredukowany bądź w ogóle go nie mają). Wszystkie cechy istotne są zarazem konieczne i wystarczające do określenia danego pojęcia. Stąd nazywane są również cechami definicyjnymi. Pojęcia podrzędne w hierarchii ogólności zawierają wszystkie cechy pojęcia nadrzędnego, a ponadto cechy istotne dla danego poziomu. Chcąc określić zbiór cech istotnych dla kwadratu, nie można pominąć żadnych istotnych cech czworoboków, czyli kategorii nadrzędnej. Przyswajanie pojęć, zgodnie z koncepcjami klasycznymi, odbywa się na drodze abstrahowania ich właściwości. Abstrahowanie oznacza wyróżnianie w grupie obiektów pewnych cech przy pominięciu pozostałych (w oderwaniu od nich; Fleszner, 1960). Andrzej Lewicki (1960) odrzucił koncepcję jednorodności procesu abstrahowania i wyróżnił dwa typy abstrakcji. Jego zdaniem, abstrakcja negatywna polega na pomijaniu cech nieistotnych (np. długość sierści u psa), zaś abstrakcja pozytywna - na wyodrębnianiu tych cech, które są istotne (np. wydawanie głosu w postaci szczekania). W konsekwencji przyjęcia takiego rozróżnienia, w procesie nabywania pojęć możliwe są dwa rodzaje błędów. Błąd pierwszego rodzaju polega na pomijaniu cech istotnych dla definicji zbioru obiektów. Wieloryb bywa zaliczany do ryb, gdy pominięta zostaje jego istotna cecha „ssakowatość”. Jest to błąd abstrakcji pozytywnej. Błąd drugiego rodzaju polega na zaliczeniu do cech istotnych właściwości nie mających znaczenia. Pszczoła bywa zaliczana do ptaków, gdy za cechę istotną kategorii „ptak” uzna się zdolność do latania (skądinąd cechę nieistotną). Jest to błąd abstrakcji negatywnej.
104
Rozdział 3. Pojęcia i schematy
Paradygmat 3.1
Nabywanie pojęć metodą recepcji Badania prowadzone w paradygmacie recepcji mają na celu poznanie sposobu nabywania przez człowieka wiedzy o otaczającej go rzeczywistości. Uczestnikowi eksperymentu pokazuje się sukcesywnie pewną liczbę obiektów, informując go o tym, czy są one, czy też nie, przedstawicielami sztucznie wymyślonej na potrzeby badania reprezentacji pojęciowej. Istnieją dwie podstawowe odmiany tego paradygmatu, które dokładniej opisują Maruszewski (1983) i Kozielecki (1997), a badania z ich wykorzystaniem prowadził Lewicki (1960, 1968). W pierwszej odmianie paradygmatu recepcji - po prezentacji każdego z obiek tów - badany podejmuje decyzje co do jego przynależności kategorialnej, a eksperymentator udziela mu każdorazowo informacji zwrotnej o trafności jego przewidywań. Po przyswojeniu reprezentacji pojęciowej przez badanego następuje seria testowa, w której kategoryzuje on nowe obiekty zgodnie z kryteriami przynależności kategorialnej, nabytymi w fazie uczenia się. W serii testowej nie przewiduje się udzielenia badanemu informacji zwrotnej. W drugiej odmianie paradygmatu recepcji uczestnikowi eksperymentu prezentuje się sukcesywnie serię obiektów. Podczas pierwszej ich prezentacji udziela się mu informacji o przynależności bądź braku przynależności kategorialnej jednego z obiektów, po czym przystępuje on do kategoryzowania pozostałych obiektów, a po zakończeniu całej serii uzyskuje informację zwrotną - czy udało się mu zaklasyfikować poprawnie wszystkie obiekty. W kolejnej serii dysponuje on już informacją o przynależności kategorialnej dwóch obiektów (w następnej serii trzech, w kolejnej - czterech itd.). Ponownie dokonuje klasyfikacji pozostałych bodźców. Powtarza czynność aż do momentu właściwego podziału obiektów na reprezentantów sztucznie stworzonej kategorii i pozostałe bodźce bądź też do wyczerpania się obiektów, o których przynależności nic jeszcze nie wiadomo. W obu odmianach paradygmatu recepcji uczestnik eksperymentu w pierwszej kolejności nabywa procedur identyfikacyjnych umożliwiających mu poprawną klasyfikację. W dalszej kolejności przedmiotem uczenia staje się istota pojęcia (zestaw cech je określających), a prośba eksperymentatora dotyczy sformułowania <■ definicji reprezentacji pojęciowej, na podstawie której odbywa się dotychczasowa klasyfikacja. Jednak ten drugi, wyższy poziom osiąga już relatywnie niewielki odsetek badanych. Okazuje się, że łatwiej posługiwać się pojęciem dokonując poprawnej klasyfikacji, niż sformułować jasną definicję pojęcia. Paradygmat recepcji należy wyraźnie odróżnić od paradygmatu selekcji (Maruszewski, 1983). W tym ostatnim badany jest aktorem dokonującym wyboru w zakresie bodźca, na który reaguje, i sposobu reakcji na niego (np. w zadaniu polegającym na sortowaniu kart do pudełek; Thompson, 1986). Natomiast w pa radygmacie recepcji uczestnik badania jest biernym obserwatorem, któremu po zwala się jedynie na formułowanie hipotez dotyczących wspólności w zakresie spostrzeganych obiektów czy zjawisk.
Lewicki (1960,1968) prowadził badania nad nabywaniem pojęć sztucznych w paradygmacie recepcji, a ściślej w drugiej z możliwych odmian tego para dygmatu (paradygmat 3.1). Reprezentacją nabywaną przez badanych było po
105
3.2. S tru k tu ra i funkcjonow anie rep rezentacji pojęciowych
jęcie „klipiec”, charakteryzow ane przez trzy cechy istotne: dwa kształty zewnętrzny, dotyczący dużej karty, i wewnętrzny, dotyczący figury wpisanej w kartę - oraz jedno w ypełnienie odnoszące się do figury w ew nętrznej (ryc. 3.1). Cecha wypełnienia samej karty (zewnętrznego obiektu) była nieistotna dla
■
A ♦
■
/" \
A
■
■
A
Ryc. 3.1. Karty używane w badaniach Lewickiego (1968) nad nabywaniem pojęć sztucznych.
definicji nabywanego pojęcia. Klipcem mógł być więc np. czarny kw adrat w trójkącie. Szybkość nabyw ania reprezentacji pojęciowej okazała się zależna zarówno od liczby cech istotnych, jak i nieistotnych nabywanego pojęcia. Im większa sum aryczna liczba w szystkich cech różnicujących klasyfikow ane egzemplarze, tym wolniejszy proces uczenia się pojęć (W etherick, 1968). Uczestnicy eksperym entu Lewickiego potrzebow ali około 4-5 serii kart (4-5 informacji eksperym entatora o popraw ności podejm ow anych decyzji, aby dokonać właściwej klasyfikacji bodźców. Liczba koniecznych serii odpow iadała więc sumarycznej liczbie wszystkich cech obiektów, które należało zaliczyć do kategorii, a nie tylko liczbie cech istotnych, definiujących nabyw ane pojęcie.
106
Rozdział 3. Pojęcia i schematy
Badani przez Lewickiego zachowywali się tak, jakby w każdej serii testowali prostą hipotezę dotyczącą pojedynczej cechy nabywanej reprezentacji pojęcio wej, decydując - po otrzymaniu informacji zwrotnej od eksperymentatora - czy dokonać procesu abstrakcji pozytywnej i zaliczyć testowaną cechę do właś ciwości istotnych, czy też procesu abstrakcji negatywnej i odrzucić rozważaną cechę jako nieistotną. W swojej koncepcji nabywania pojęć Lewicki dokonał więc syntezy dwóch teorii: teorii abstrakcji i teorii testowania hipotez. Stanowisko takie nie jest jednak powszechne. Co więcej, historycznie rzecz biorąc, oba stanowiska były sobie przeciwstawiane. Zwolennicy psychologii asocjacjonistycznej byli prze konani o wystarczającej roli abstrahowania w kształtowaniu się reprezentacji pojęciowych, natomiast gestaltyści wyrażali przekonanie, iż proces ten dokonuje się głównie poprzez testowanie hipotez (Maruszewski, 1983). Howard (1983) wyraźnie odróżnia dwa sposoby nabywania pojęć. Pojęcia niejawne (implicit concepts) są, według niego, nabywane metodą abstrakcji percepcyjnej bądź wyobrażeniowej właściwości desygnatów z egzemplarzy typowych dla kategorii, podczas gdy pojęcia jawne (explicit concepts) - metodą testowania hipotez odnośnie do wcześniej wyabstrahowanych cech dostępnych egzemplarzy. Być może niejawny sposób nabywania reprezentacji pojęciowych (tylko metodami abstrakcji) dotyczy w większej mierze pojęć naturalnych, podczas gdy pojęcia sztuczne są efektywnie kształtowane w procesie testowania hipotez bez konieczności zbierania doświadczeń percepcyjnych. Częściowym potwierdze niem tego hipotetycznego rozróżnienia w zakresie metod uczenia się reprezen tacji pojęciowych są wyniki badań Posnera i Keele (1968, 1970) nad naby waniem pojęć matrycowych (zob. rozdz. 3.2.3). Lewicki wykazał również, że pod względem efektywności nabywania pojęć ludzie dzielą się wyraźnie na trzy grupy. Do pierwszej należą ci, którzy nie są w stanie w ogóle wyuczyć się pewnych pojęć. Do drugiej zaś ci, którzy wpraw dzie są w stanie poprawnie używać reprezentacji pojęciowych, ale nie potrafią ich zdefiniować. Znają więc procedurę identyfikacyjną obiektów jako należą cych do kategorii, nie znając jednak istoty pojęcia. Do trzeciej grupy zaliczył Lewicki tych, którzy są w stanie zarówno poprawnie używać reprezentacji pojęciowych, jak i zdefiniować samo pojęcie za pomocą cech istotnych (znają procedurę identyfikacyjną oraz istotę pojęcia). Niestety, nawet wśród badanych studentów matematyki i medycyny odsetek członków tej ostatniej grupy był zadziwiająco niski (20%). Natomiast ze względu na sposób nabywania reprezentacji pojęciowych ludzie dzielą się, według Lewickiego, na cztery grupy. Pierwsza - grupa „kon sekwentnych” - testuje w sposób nieprzerwany hipotezy dotyczące pojedyn czych właściwości nabywanych pojęć. Druga grupa - „półkonsekwentnych” charakteryzuje się częstymi zmianami w zakresie testowanych hipotez jeszcze przed otrzymaniem informacji zwrotnych od eksperymentatora, a więc przed momentem, w którym hipoteza może zostać sfalsyfikowana. Trzecia grupa to osoby reagujące chaotycznie i przypadkowo. Najciekawszą strategią posługują się członkowie ostatniej grupy - sprawdzają oni hipotezy w sposób odwrócony, zaliczając egzemplarze pojęcia do niereprezentantów i odwrotnie. Właśnie istnienie tej ostatniej grupy osób pozwala wierzyć, iż nabywanie pojęć jest procesem znacznie bardziej złożonym niż warunkowanie poprzez generalizację
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
107
i różnicowanie (Maruszewski, 1983). Mimo że testowanie hipotez wydaje się najbardziej efektywną metodą nabywania pojęć w paradygmacie recepcji, to jednak strategię tę preferuje zaledwie jedna trzecia badanych - 38% uczestników eksperymentów Lewickiego (1968) i Sęk (1970). Klasyczne teorie reprezentacji pojęciowych były i są często poddawane krytyce. Szerokie omówienie argumentów krytycznych znaleźć można w wielu polskich pracach (zob. Chlewiński, 1999; Maruszewski, 2001; Trzebiński, 1986). W tym miejscu zostaną syntetycznie i skrótowo zaprezentowane ważniej sze zarzuty wobec tego podejścia. Stwierdza się, że zasadniczo tylko w naukach ścisłych możliwe jest posłu giwanie się pojęciami w rozumieniu klasycznym. Być może więc teorie klasycz ne stosują się wyłącznie do pojęć matrycowych. Twierdzenie o powszechności obowiązywania modelu klasycznego w odniesieniu do wszystkich rodzajów pojęć, w szczególności pojęć naturalnych, może być zatem nieuzasadnione (Trzebiński, 1986). Krytyce poddaje się także istnienie pojęć dysjunktywnych, posiadających w swej definicji wykluczające się właściwości. Jest ono nieuzasadnione w obliczu klasycznej definicji reprezentacji pojęciowej, gdyż w przypadku tych właśnie pojęć nie da się podać zbioru cech istotnych, czyli takich, które są reprezen towane przez wszystkich przedstawicieli definiowanej kategorii nadrzędnej. Część desygnatów pojęcia dysjunktywnego posiada bowiem zupełnie inne cechy „istotne” niż pozostały zbiór egzemplarzy tego pojęcia (Chlewiński, 1999). W modelach klasycznych przyjmuje się też założenie, że cechy istotne pojęcia są równoważne. Conrad (1972) wykazała jednak, że niektóre z istotnych właściwości reprezentacji pojęciowych są przez badanych wymieniane przy okazji definiowania pojęć częściej niż inne cechy; są one także przez nich oce niane jako zdecydowanie ważniejsze dla struktury pojęcia. Szybkość weryfikacji zdania zawierającego daną cechę istotną - „pies szczeka” - zależy od tego, na ile cecha ta - „szczekanie” - jest uważana przez badanych za ważną w definiowaniu danego pojęcia - „psa”. Inne założenie modelu klasycznego głosi, że wszystkie reprezentacje pojęciowe definiowane za pomocą zestawu cech istotnych są równie ważne i w równym stopniu dostosowane do opisu obiektów świata rzeczywistego. Tymczasem, jak wskazują Murphy i Medin (1985), pojęcia różnią się swoją relatywną wagą - raczej trudno założyć, że pojęcie definiowane przez dwie cechy: posiadanie więcej niż jednej nogi i ciężaru w zakresie od 11 do 240 kg (przykład zaczerpnięty; tamże) wnosi cokolwiek sensownego do procesu redukowania różnorodności między obiektami. Próby ścisłej definicji niektórych pojęć naturalnych są zupełnie nieprecy zyjne i powodują kłopoty z zaliczaniem desygnatów do kategorii nadrzędnych. McCloskey i Glucksberg (1978) wykazali, że dla połowy uczestników ich eksperymentu telewizor posiadał cechy umożliwiające zaliczanie go do kate gorii... mebli. Gdyby definicja pojęcia „mebel” zawierała zbiór cech istotnych, a kategoryzacja polegała na wykryciu tych cech w kategoryzowanym obiekcie, wówczas badani nie powinni mieć żadnych problemów z odpowiednim przy porządkowaniem desygnatów. W procesie kategoryzowania zmieniają się również treści pojęć. W kon sekwencji zmieniają się także zestawy cech istotnych, definiujących to samo
108
Rozdział 3. Pojęcia i schematy
pojęcie. Tym właśnie, co odróżnia człowieka od zwierząt, jest elastyczność procesu kategoryzacji (Lenneberg, 1967). W rozwoju dziecka nabywanie pojęć odbywa się w procesie akomodacji, czyli dostosowania starych struktur poję ciowych do nowych danych (Piaget, 1971). Możliwość redefiniowania repre zentacji pojęciowych na skutek nowych doświadczeń jest tym, czego również zdają się nie uwzględniać koncepcje klasyczne. W wyniku przeglądu argumentów formułowanych przez zwolenników i przeciwników koncepcji klasycznych należy przyjąć, że koncepcje te definiują strukturę reprezentacji pojęciowej w formie listy cech definicyjnych, a więc w formie właściwości przysługujących w równym stopniu wszystkim desygnatom pojęcia. Proces kategoryzacji ma polegać na porównaniu zestawów cech posiadanych przez zaliczany egzemplarz i cech definicyjnych, charakterystycz nych dla kategorii nadrzędnej. Natomiast nabywanie pojęć dokonuje się dzięki operacjom abstrahowania: pozytywnego (odnajdywanie cech istotnych) i negatywnego (pomijanie cech nieistotnych). Proces ten jest najbardziej efektywny, gdy polega na testowaniu hipotez o istotności abstrahowanej cechy dla definicji pojęcia. Jednak nie zawsze w procesie nabywania pojęć dochodzi do testowania hipotez - ograniczenia w wykorzystaniu najbardziej skutecznej strategii są związane zarówno z różnicami indywidualnymi (nie wszyscy potrafią), jak i z rodzajem sytuacji bodźcowej (nie wszystkie kategorie się nadają). Ze względu na precyzyjne definicje struktury i funkcjonowania reprezentacji pojęciowych jedynymi pojęciami, do których z pewnością mogą odnosić się koncepcje klasyczne, wydają się pojęcia sztuczne (matrycowe).
3 .2.2. Teorie probabilistyczne Istnienie nadrzędnych kategorii pojęciowych, w przypadku których ludzie mają problemy z zaliczaniem do nich mniej typowych reprezentantów (McCloskey, Glucksberg, 1978), sugeruje, że poszczególne desygnaty można zaliczyć do da nego pojęcia tylko z pewnym stopniem prawdopodobieństwa. Nawet potoczne obserwacje pozwalają na stwierdzenie, iż zaliczenie wróbla do kategorii „ptaki” jest znacznie bardziej prawdopodobne niż zaliczenie do tej kategorii kury. Jest tak dlatego, że pewnych pojęć, a w szczególności pojęć naturalnych, nie można sprowadzić do zbioru cech istotnych (Trzebiński, 1986). Zgodnie z koncepcjami probabilistycznymi (probablistic view), reprezenta cja pojęciowa jest sumarycznym opisem wszystkich cech egzemplarzy będących desygnatami danego pojęcia. Cechy te różnią się w zakresie powszechności występowania wśród desygnatów kategorii, co oznacza, że każdy egzemplarz kategorii posiada te właściwości z pewnym tylko prawdopodobieństwem. Ptaki są opisywane raczej jako obiekty latające, gdyż większość ptaków lata, a nieloty - np. kiwi - należą do rzadkości. Oznacza to, że umiejętność latania jest dla ptaków cechą bardzo typową, o wysokim prawdopodobieństwie występowania. Ptaki są z kolei rzadko opisywane jako udomowione, gdyż stosunkowo niewiele gatunków ptaków udało się oswoić. Oznacza to, że bycie udomowionym jest u ptaków cechą o bardzo małym prawdopodobieństwie ujawniania się. Definicja kategorii nadrzędnej „ptak” zawiera cechy będące wypadkowymi cech poszczególnych jej desygnatów. Wróbel jest więc „bardziej”
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
109
ptakiem niż kiwi lub kura, gdyż lata i nie jest udomowiony (jest bliżej średniej właściwości dla ptaków, przynajmniej jeśli chodzi o latanie i warunki życia). Ze względu na uznawanie cech jako właściwości możliwych, ale niekoniecznych, pojęcia definiowane w ten sposób nazwano probabilistycznymi (probabilistic concepts). Smith, Shoben i Rips (1973, 1974) przeprowadzili badania w paradygmacie podejmowania decyzji semantycznych (paradygmat 3.2). Polecili oni uczestni kom eksperymentu weryfikację prawdziwości prostych zdań, dotyczących tego, czy dany desygnat jest egzemplarzem nadrzędnej kategorii pojęciowej (np. „Czy kanarek to ptak?”). Wykazano, że czas podejmowania decyzji, czy dany de sygnat jest przedstawicielem kategorii, zależy od jego typowości - im bardziej typowy egzemplarz kategorii, tym krótszy czas podejmowania decyzji. Różnice w średnich czasach reakcji były niewielkie w przypadku egzemplarzy typowych i średnio typowych (zaledwie 19 ms; w przypadku kategorii „owady” stwierdzono nawet zależność przeciwną: -35 ms), ulegając zdecydowanemu Paradygmat 3.2
Podejmowanie decyzji semantycznych W badaniach nad podejmowaniem decyzji semantycznych respondenci proszeni są o jak najszybsze rozstrzygnięcie kwestii przynależności kategorialnej danego obiektu. Z reguły badania te prowadzi się w formule „od reprezentacji pojęciowej do egzemplarzy” (Trzebiński, 1986). Najpierw uczestnikowi eksperymentu na ekranie monitora prezentuje się etykietę werbalną, będącą nazwą reprezentacji pojęciowej (no. „ptaki”), a następnie wyświetla się etykiety odpowiadające różnym obiektom: ptakom („kanarek” , „wróbel” itd.) i nie-ptakom („pszczoła” , „wieloryb” itd.). Za daniem osoby badanej jest jak najszybciej nacisnąć przycisk korespondujący z wybraną przez niego odpowiedzią: pozytywną, gdy egzemplarz jest przedstawi cielem pojęcia, lub negatywną, gdy nim nie jest. Początkowo paradygmat podejmowania decyzji semantycznych służył do falsyfikowania hipotez w ramach koncepcji struktury i funkcjonowania reprezentacji pojęciowych (wszystkie teorie z wyjątkiem koncepcji klasycznych). Później wy korzystywano go do sprawdzania wzajemnych relacji pomiędzy pojęciami w ramach struktury sieci semantycznej. Pytano więc o cechy poszczególnych pojęć (np. „Czy kanarek lata?”), próbując ustalić, na jakim poziomie ogólności są przechowywane informacje o poszczególnych właściwościach. Sprawdzano także rodzaj relacji (pozytywne/negatywne) łączących poszczególne reprezentacje, zestawiając w zdaniu do weryfikowania obiekty ze sobą niepowiązane (np. „Czy budynek to koń?”). Badaczy interesował zarówno czas podejmowania decyzji, jak i poprawność klasyfikowania. Okazało się, że w przypadku nietypowych przedstawicieli danej kategorii czas podjęcia decyzji rośnie o ok. 60 ms, a liczba błędów zwiększa się przeciętnie dwukrotnie (Trzebiński, 1986). Wyniki badań w paradygmacie decyzji semantycznych świadczą na niekorzyść koncepcji klasycznych, ale nie są rozstrzygające w odniesieniu do pozostałych teorii reprezentacji pojęciowych. Tymczasem ich zwolennicy wyraźnie interpretują te dane jako potwierdzenie swoich poglądów.
110
Rozdział 3. Pojęcia i schematy
wydłużeniu w przypadku desygnatów średnio typowych i nietypowych (aż do 43 ms). Co ciekawe, czasy weryfikacji zdań, w których wymieniano bardzo nietypowych przedstawicieli danej kategorii, były zbliżone, niezależnie od tego, na czym owa nietypowość polegała. Natomiast w przypadku obiektów nienależących do danej kategorii czas podejmowania decyzji semantycznej był bardzo krótki. Według probabilistycznej koncepcji Smitha, Shobena i Ripsa (1973, 1974), reprezentacja pojęciowa jest definiowana przez dwa rodzaje cech. Najważniej sze pozostają nadal cechy definicyjne, w jednoznaczny sposób pozwalające określić, czy obiekt jest desygnatem pojęcia. Cechy definicyjne konstytuują rdzeń pojęcia (Trzebiński, 1986) - charakteryzują się nimi wszystkie bez wyjątku jego egzemplarze. Reprezentacja pojęciowa jako zbiór cech składa się jednak także i z cech charakterystycznych, wskazujących na typowość danego obiektu względem nadrzędnego mu pojęcia. Są to reprezentatywne cechy egzemplarzy pojęcia, a nie samego pojęcia. Im więcej cech charakterystycznych posiada dany egzemplarz, tym bardziej jest on typowy (Maruszewski, 1983). Według Smitha i jego współpracowników, decyzja semantyczna dotycząca przypisywania obiektu do kategorii, tj. proces kategoryzacji, przebiega w dwóch etapach. W pierwszym etapie następuje porównanie całościowe, obejmujące wszystkie cechy kategoryzowanego obiektu i cechy pojęcia, do którego obiekt ten jest zaliczany. Jeżeli egzemplarz jest typowy, a więc posiada większość cech definicyjnych nadrzędnego pojęcia i dużą liczbę możliwych cech charakterys tycznych tego pojęcia, to decyzja pozytywna - zaliczenie do kategorii - jest podejmowana natychmiast. Typowe desygnaty spełniają bowiem wszystkie albo większość cech definicyjnych kategorii nadrzędnej, posiadając również większość cech charakterystycznych, podzielanych z wieloma innymi egzem plarzami. Jeżeli obiekt jest nietypowy i nie spełnia większości cech definicyjnych pojęcia, wtedy decyzja negatywna (niezaliczenie do kategorii) jest równie szybka, jak decyzja pozytywna w przypadku obiektów typowych. W drugim etapie procesu kategoryzacji zachodzi porównanie szczegółowe, dotyczące tylko cech definicyjnych nadrzędnej kategorii pojęciowej. Chodzi tu 0 ustalenie proporcji cech definicyjnych, posiadanych przez klasyfikowany egzemplarz w stosunku do cach istotnych, których egzemplarzowi brakuje. Porównanie to prowadzi do szczegółowej analizy cech kategoryzowanego desygnatu. Tego typu analiza wymaga jednak czasu - czasochłonne jest zarówno abstrahowanie pojedynczych cech klasyfikowanego egzemplarza, jak i odrębne porównanie kategoryzowanego obiektu oraz nadrzędnej kategorii ze względu na poszczególne, wyabstrahowane cechy. Efektem tak drobiazgowej analizy jest jednak możliwość zaliczenia mniej typowych desygnatów do kategorii nad rzędnej. Na przykład w przypadku obiektu „kiwi” przestaje być wtedy istotne to, że nie lata; nadal spełnia bowiem wiele innych cech definicyjnych ptaków, takich jak np. znoszenie jaj. Porównanie egzemplarzy tej samej kategorii naturalnej dotyczy w tym ujęciu tylko pewnych wyróżnionych właściwości desygnatów, kluczowych dla zdefiniowania struktury danego pojęcia naturalnego. Strukturę tę Rips, Shoben 1 Smith (1973) nazwali przestrzenią semantyczną reprezentacji pojęciowej. Wykazali oni, że wszystkie desygnaty kategorii „ssak” można wpisać w orto gonalny układ dwóch podstawowych wymiarów: wielkości oraz stopnia
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
111
udomowienia (ryc. 3.2). Stwierdzili również, że reprezentacja nadrzędnej kategorii „ssak” charakteryzuje się średnimi właściwościami w zakresie wymiarów definiujących strukturę pojęcia i lokuje się w środku układu. Co więcej, określenie właściwości egzemplarzy ssaków na wymiarach wielkości oraz stopnia udomowienia pozwala na przewidywanie zarówno prostych decyzji osób badanych odnośnie do określenia stopnia podobieństwa porównywanych przedstawicieli, jak i złożonych wyborów egzemplarzy analogicznych, dopełnia jących skomplikowany układ zależności (np. „koń” do „pies” ma się jak „jeleń” do „królik”; zob. ryc. 3.2).
swima
koza
owca
•
krowa •
koń
pies •
X •
jeleń
SSAK
•
•
królik mysz
•
niedźwiedź
• •
kot
lew
Ryc. 3.2. Pizestrzeń semantyczna pojęcia „ssak” określona w badaniach Ripsa, Shobena i Smitha (1973).
Koncepcje probabilistyczne również poddano surowej krytyce. Ze względu na to, że szerokie omówienie argumentów krytycznych znaleźć można w wielu polskich pracach (zob. Chlewiński, 1999; Maruszewski, 2001; Trzebiński, 1986), w tym miejscu omówimy tylko ważniejsze zarzuty wobec tych koncepcji. Przede wszystkim zakłada się, że każde pojęcie ma ściśle określony rdzeń pojęciowy zawierający cechy definicyjne. Twierdzenie to tak samo łatwo odrzucić jak tezę, że pojęcie składa się tylko z cech definicyjnych (zob. rozdz. 3.2.1 - krytyka teorii klasycznych). Większość argumentów krytycznych wobec teorii klasycznych znajduje więc zastosowanie również wobec teorii probabilis tycznych (Murphy, Medin, 1985), a to z powodu wyznawanego przez twórców tych koncepcji poglądu, że mogą istnieć cechy przysługujące wszystkim desygnatom. Ponadto zestaw najbardziej prawdopodobnych cech niekoniecznie tworzy spójną pod względem zawieranych desygnatów nadrzędną kategorię pojęciową (Murphy, Wiśniewski, 1985). Zróżnicowanie pomiędzy dwiema kategoriami może bowiem dotyczyć nie tyle cech definicyjnych, ile właśnie cech charakterys tycznych, przejawianych przez poszczególne desygnaty. Inaczej mówiąc, dwie bliskie kategorie pojęciowe mogą mieć identyczny zestaw cech istotnych, a mimo
112
Rozdział 3. Pojęcia i schematy
to są różnymi kategoriami ze względu na różnice w zakresie zbioru cech charakterystycznych. Tego jednak ani opis struktury reprezentacji pojęciowej, ani dwuetapowy model kategoryzacji, proponowane przez zwolenników koncepcji probabilistycznych, nie uwzględniają. O tym, że kategorii pojęciowych nie da się zdefiniować poprzez zestaw cech o dużym stopniu typowości, świadczy też brak symetrii w zakresie cech kategorii i cech egzemplarzy. Jeśli w badaniach prowadzonych w paradygmacie podejmowania decyzji semantycz nych zostanie zamieniona kolejność podawania informacji z „pojęcie - egzem plarz” (np. „Czy ptakiem jest kanarek?”) na „egzemplarz - pojęcie” (np. „Czy kanarek to ptak?”), ma to wpływ na czas wykonania zadania. Wynika to z braku symetryczności w zakresie relacji pomiędzy kategoryzowanym obiektem a nadrzędną wobec niego reprezentacją pojęciową (Loftus, 1973; Loftus, Loftus, 1975). Jak można zauważyć, koncepcje probabilistyczne próbowały zaadaptować teorię reprezentacji jako zbioru cech do analizy pojęć naturalnych, w przypadku których desygnaty posiadają właściwości kategorii nadrzędnej jedynie z pewnym prawdopodobieństwem (mogą posiadać, ale nie muszą). Próba ta doprowadziła do niezbyt klarownych rozróżnień zarówno w zakresie struktury reprezentacji (cechy definicyjne i charakterystyczne), jak i w odniesieniu do sposobu ka tegoryzacji (model dwuetapowy zamiast prostego porównywania listy cech). Wprawdzie tezy teorii probabilistycznych znalazły swoje częściowe potwier dzenie w wynikach badań w paradygmacie podejmowania decyzji semantycz nych, jednakże wielu badaczy (zob. Maruszewski, 1983; Trzebiński, 1986 szersze omówienie) zwróciło uwagę na inne możliwe wyjaśnienia uzyskiwanych efektów, nie odwołujące się do proponowanej przez koncepcje probabilistyczne skomplikowanej struktury reprezentacji pojęciowych i ich funkcjonowania. W odniesieniu do problemu nabywania pojęć oba stanowiska: klasyczne i probabilistyczne, nie różniły się istotnie podkreślając kluczową rolę procesu abstrahowania cech.
3.2.3. Teorie prototypów Eleonora Rosch (1978) wyodrębniła dwa wymiary reprezentacji pojęciowych: poziomy i pionowy. Wymiar pionowy (vertical dimension of categories) dotyczy stopnia ogólności pojęcia. Według Rosch istnieją trzy jego poziomy. Poziom nadrzędny (superordinate level) charakteryzuje się tym, że pojęcia są na nim odzwierciedlane przez niewielką liczbę cech. Z tego też powodu kategorie ogólne charakteryzują się szeroką inkluzywnością - w takiej kategorii mieści się wiele różnych egzemplarzy. Poziom podstawowy (basic level) różni się od nadrzędnego liczbą cech (na tym poziomie większą), charakteryzujących reprezentacje pojęciowe. Pojęcia poziomu podstawowego są wymieniane spontanicznie, gdy ludzie dorośli nazywają obiekty (Rosch, 1978). W konsek wencji jest to najczęściej używany poziom ogólności reprezentacji pojęciowych (Mervis, 1983; Johnson, Mervis, 1997). Jego występowanie i powszechność posługiwania się nim stwierdzono również poza kulturą zachodnią (Berlin, 1978), a także w języku migowym (Newport, Bellugi, 1978). Na poziomie podstawowym małe dzieci uczą się w pierwszej kolejności nazw wielu przed
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
113
miotów (Rosch, 1978), choć zwolennicy koncepcji prototypów przyznają, że proces nabywania reprezentacji pojęciowych u dzieci rozpoczyna się raczej od poziomu podrzędnego, a ściślej od wielu pojęć jednostkowych (indywidualnych) o klarownych funkcjach (np. mama, lala; Anglin, 1977). Egzemplarze poziomu podstawowego są szybciej identyfikowane niż egzemplarze poziomu nadrzęd nego i podrzędnego. Ich stosowanie pozwala uniknąć wielu błędów rozumowa nia, charakterystycznych dla poziomów wyższego (zbytnia ogólność) i niższego (zbytnia szczegółowość; Tversky, 1977). Jednak nie zawsze pojęcia z poziomu podstawowego są najlepiej zapamiętywane. Dotyczy to szczególnie rozpozna wania - często efektywniej rozpoznawane są pojęcia specyficzne i będące rzadko w użyciu, a więc pojęcia poziomu podrzędnego (Kintsch, 1970). Poziom podrzędny (subordinate level) uwzględnia bowiem pojęcia bardzo szczegółowe 0 dużej liczbie charakteryzujących je cech. W konsekwencji w porównaniu z poziomem podstawowym zmniejsza się tu łatwość identyfikowania desygnatów pojęć, gdyż wiele różnych egzemplarzy charakteryzuje się bardzo podobnym zestawem cech. Desygnat zidentyfikowany wyróżnia się jednak specyficznością 1 rzadkością występowania, co wiąże się z jego lepszym późniejszym rozpoz naniem. Wraz z przechodzeniem z poziomu niższego na wyższy w hierarchii ogól ności zmniejsza się liczba cech charakteryzujących reprezentacje pojęciowe, a wzrasta łatwość w rozróżnianiu między sobą desygnatów tych pojęć. Zmniej sza się bowiem liczba cech charakterystycznych, które pojęcia te podzielają. Jednocześnie jednak wzrasta ogólność tak dokonywanej kategoryzacji, która sprawia, że bardzo różne desygnaty mogą zostać zaliczone do tej samej kategorii. Rosch wykazała różnice w zakresie reprezentowania pojęć na różnych poziomach wymiaru pionowego w kilku badaniach (Rosch i in., 1976; Rosch, Simpson, Miller, 1976; Rosch, 1978). W eksperymencie pierwszym (Rosch i in., 1976a) polecono osobom badanym wypisanie cech trzech pojęć: „meble” (po ziom nadrzędny; furniture), „siedziska” (poziom podstawowy; inaczej: krzesła i fotele; chair) oraz „wygodne fotele” (poziom podrzędny; easy chair). Na po ziomie podstawowym równowaga pomiędzy specyficznością (łatwość rozró żnienia desygnatów kategorii) a ekonomią (liczba cech definiujących kategorię pojęciową) okazała się najlepsza. Ekonomia reprezentowania w umyśle była bezpowrotnie tracona na poziomie podrzędnym, gdzie liczba cech charakterys tycznych dla kategorii była bardzo duża. Specyficzność zaś zanikała na poziomie nadrzędnym z powodu dużej ogólności kategorii pojęciowych. W innym ekspe rymencie (Rosch i in., 1976b) badani wypisywali nazwy pojęć z poszczególnych poziomów. Okazało się, że byli oni w stanie wskazać istotnie mniej reprezentacji pojęciowych z poziomu nadrzędnego (najogólniejszego) niż z pozostałych poziomów. Znacznie mniejsze różnice w zakresie liczby wypisywanych pojęć stwierdzono pomiędzy poziomami podstawowym i podrzędnym (tab. 3.1). Wymiar poziomy reprezentacji pojęciowych (horizontal dimension of categories) dotyczy desygnatów pojęcia znajdującego się na poziomie wyższym. Nie wszystkie egzemplarze są „dobrymi” desygnatami pojęcia z poziomu wyższego. Desygnaty różnią się bowiem typowością. Najbardziej typowy, czy też najbardziej reprezentatywny, egzemplarz Rosch (1973) nazwała prototypem. Prototyp zajmuje w klasyfikacji desygnatów danej kategorii, prowadzonej ze względu na cechę typowości, zdecydowanie pierwsze miejsce. W badaniach
114
Rozdział 3. Pojęcia i schematy
Tab. 3.1. Przykłady egzemplarzy pojęć na różnych poziomach ogólności (za: Rosch, 1999). Poziom nadrzędny
Poziom podstawowy
Poziom podrzędny
mebel
siedziska
taboret kuchenny fotel
stół
stół kuchenny stół salonowy
lampa
lampa stojąca lampka biurkowa
dąb
dąb czerwony dąb biały
klon
klon srebrzysty klon cukrowy
brzoza
brzoza nadrzeczna brzoza żółta
drzewo
Rosch 113 osób (wszyscy uczestnicy eksperymentu!) wykazało się jednomyśl nością w zakresie rangowania typowości desygnatów w kategoriach: nauka, przestępstwo i pojazd. Za prototypowe uznali oni odpowiednio: chemię, mor derstwo i samochód. Warte podkreślenia jest także to, że klasyfikowanie 48 desygnatów w ramach 6 kategorii zajmowało badanym z reguły nie więcej niż 5 min - wynik ten świadczy o naturalnej łatwości posługiwania się typowością obiektów w procesie ich klasyfikacji. W późniejszych pracach Rosch (1978) określała prototyp jako „najczystszy” desygnat danej kategorii pojęciowej. Prototyp reprezentuje w umyśle kategorię nadrzędną - inne egzemplarze tej samej kategorii nie są już tak dobrymi jej odzwierciedleniami. Wykazała to również Loftus (1973). Poleciła ona uczestnikom eksperymentu, aby nadawali prezentowanym desygnatom kategorie nadrzędne. Właściwe reprezentacje pojęciowe (w sensie oczekiwane przez prowadzącą eksperyment) pojawiały się u osób badanych tym szybciej, im bardziej typowe egzemplarze oczekiwanej kategorii nadrzędnej zostały przez nią przedstawione. Uczestnicy eksperymentu wskazywali więc reprezentację pojęcia „ptak” szybciej, gdy zapoznawali się z takimi egzemplarzami tej kategorii, jak wróbel czy drozd, a czynili to znacznie wolniej, gdy prezentowano im rzadkie desygnaty tej kategorii, jak pingwin czy struś. Biorąc pod uwagę wymiar poziomy reprezentacji pojęciowych, Mervis i Pani (1980) wykazali również, że nowe pojęcia są przyswajane znacznie szybciej i bardziej adekwatnie, gdy badanym pokazuje się jedynie typowych przedstawicieli nabywanej kategorii. Efekt ten ma zresztą głęboki sens dydaktyczny - nikt nie uczy dzieci tego, czym są ptaki, pokazując im takie desygnaty tej kategorii, jak pingwiny i kiwi. Z badań zwolenników koncepcji prototypów (prototype view), dotyczących uczenia się pojęć, wynika zatem, że reprezentacje pojęciowe są nabywane w procesie doświadczania egzemplarzy. Z punktu widzenia efektywności tego procesu najlepiej jest, gdy uczenie rozpoczyna się od prototypu (wymiar po ziomy) kategorii pojęciowej z poziomu podstawowego (wymiar pionowy).
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
115
W wypadku małych dzieci jako pierwsze przyswajane są jednak pojęcia z po ziomu podrzędnego o klarownej funkcjonalności. Mimo że oba zaproponowane tu sposoby rozumienia prototypu („czysty” lub „najlepszy” desygnat) nie są z pewnością precyzyjne, osoby badane nie mają większych wątpliwości co do ich znaczenia, na co wskazuje krótki czas wyróżniania prototypowych desygnatów pojęć naturalnych. Z reguły ludzie też nie różnią się niemal w ogóle w swoich klasyfikacjach. Armstrong, Gleitman i Gleitman (1983) porównali rangi egzemplarzy tych samych kategorii, których używała także Rosch (1973). Nie stwierdzono większych różnic w samym układzie klasyfikacji, choć w wypadku niektórych kategorii (np. „pojazdy”) różnice w rangach na dalszych pozycjach listy okazały się znaczne (tab. 3.2). Czasami pojawiają się jednak problemy z klasyfikacją na skali typowości. Dla Amerykanów niemal równie typowym ptakiem jak drozd okazał się w jed nym z eksperymentów orzeł (Rosch, 1973), a w innym - wróbel (Rosch, 1978; wróbel nie byl brany pod uwagę w badaniach wcześniejszych), zaś wśród przestępstw bardzo wiele wykroczeń okazało się w przybliżeniu podobnie Tab. 3.2. Porównanie rang egzemplarzy pojęć naturalnych w badaniach Rosch (1973) oraz Armstronga i współpracowników (1983). Im niższa wartość, tym większa typowość (prototyp =1). Pojęcie naturalne
Rosch (1973)
Armstrong i in. (1982)
Różnica
1,3
truskawka
1,3 2,3
2,1
+0,2
śliwka
2,3
2,5
-0,2
brzoskwinia
2,3
2,7
-0,4
figa
4,7
5,2
-0,5
oliwka
6,2
6,4
-0,2
1,4
-0,2
gimnastyka
1,2 1,8 2,6
1,8 2,8
-0.2
wrestling
3,0
3,1
-0,1
łucznictwo
3,9
4,8
-0,9
podnoszenie ciężarów
4,7
5,1
-0,4
zdy samochód
1,0
1,0
łódka
2,7
3,3
-0,6
skuter
2,5
4,5
-2,0
rower trzykołowy
3,5
4,7
-1,2
koń
5,9
5,2
+0,7
narty
5,7
5,6
+0,1
owoce jabłko
t football hokej
-
-
116
Rozdział 3. Pojęcia i schematy
typowych i niemal tak samo typowych jak prototyp tej kategorii - morderstwo (Rosch, 1973; napad, kradzież, szantaż i malwersacja uzyskały rangi w prze dziale <1,3;1,8>, gdzie 1 oznacza prototyp). Jak się wydaje, prototypy są wspólne dla badanych pochodzących z tej samej populacji, mogą jednak różnić się kulturowo. Dla Amerykanów drozd może być tak samo typowym ptakiem, jak wróbel, podczas gdy dla Polaków już nie (Kurcz, 1997). Ci ostatni wyraźnie wskazują na wróbla jako ptaka bardziej typowego niż drozd. Prototypy mogą również różnić się ze względu na inną cechę, np. pleć; prototypem ubrania dla studentów są spodnie, podczas gdy dla studentek najbardziej typowym ubraniem okazuje się sukienka - o czym świadczą wyniki demonstracji efektu typowości z udziałem studentów I roku psychologii. Na kształtowanie się prototypu jako reprezentanta kategorii pojęciowej ma więc wpływ doświadczenie indywidualne i dziedzictwo kulturowe. Nabywanie i stosowanie danego pojęcia odbywa się zawsze w pewnym kontekście: sytuacji bodźcowej, dotychczasowej wiedzy uczącego się oraz kultury, której jest przedstawicielem. Murphy i Medin (1985) są zwolennikami takiego właśnie podejścia. Zrywają oni z poglądem o powszechności i niezmienności trwałych reprezentacji pojęciowych, głosząc tezę o kontekstualnej zależności pojęć. Wskazują na wyraźne różnice w nabywaniu, strukturze i funkcjonowaniu systemu pojęć u „naiwnego” obserwatora i eksperta w jakiejś dziedzinie. Argumentów empirycznych, potwierdzających kontekstowe teorie reprezentacji pojęciowych dostarczyli m.in. McCIoskey i Glucksberg (1978) oraz Roth i Shoben (1983). Wykazali oni, że uczestnicy eksperymentu są zdolni do zmiany w zakresie prototypów reprezentacji pojęciowych w zależności od zmiany warunków badania. Nawet jeśli sukienka jest rzeczywiście prototypo wym ubraniem, to przestaje nim być w sytuacji plażowania - w takim kontekście najbardziej typowym desygnatem rozważanej kategorii staje się kostium kąpielowy. Zmiana na szczycie klasyfikacji - na pozycji najbardziej typowego przedstawiciela - pociąga za sobą zmiany w hierarchii rang przyznawanych innym egzemplarzom tej samej kategorii. Jednakże Rosch i współpracownicy (Rosch, Mervis, 1975; Rosch i in., 1976b) wykazali, że w obrębie tej samej populacji określanie typowości jest niezależne od częstości doświadczeń zarówno z klasyfikowanymi obiektami, jak i z reprezentującymi te obiekty etykietami werbalnymi. Mimo sprzecznych doniesień trudno bronić tezy o bezwzględnej uniwersalności prototypów reprezentacji pojęciowych, chociaż z pewnością można stwierdzić, że członkowie tej samej populacji, charaktery zujący się wspólnymi doświadczeniami, mogą wykorzystywać identyczne prototypy w przypadku wielu naturalnych kategorii pojęciowych. Jednakże inne niż operacyjne definicje prototypu (pozycja w rankingu typowości) nadal budziły wątpliwości co do precyzji. Dlatego Posner i Keele (1968, 1970) podjęli próbę określenia tego konstruktu w postaci listy cech. Stwierdzili oni, że egzemplarz prototypowy charakteryzuje się właściwościami będącymi średnią arytmetyczną cech desygnatów napotkanych przez jednostkę w indywidualnym doświadczeniu. W swoim eksperymencie wykorzystali wzorcowe obrazy figur (m.in. figury geometryczne, takie jak trójkąt, kwadrat itd., oraz litery, takie jak M, F itd.), składające się wyłącznie z kropek (ryc. 3.3). Następnie dokonali transformacji tych wzorcowych obrazów, zmieniając lokalizację poszczególnych kropek w ramach matrycy. Utworzyli w ten sposób
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
117
wiele obrazów o różnym stopniu podobieństwa do układu wyjściowego. Wyróżniono siedem stopni na skali niepodobieństwa danego obrazu do układu wyjściowego. Niewielka zmiana położenia jednej z kropek powodowała, iż nowo utworzony obraz niewiele różnił się od wyjściowego. Znacząca zmia na lokalizacji jednocześnie wielu kropek powodowała, że podobieństwo obra zu wyjściowego do układu wygenerowanego było relatywnie duże. Dokonując transformacji na wyjściowych układach kropek, Posner i Keele zadbali o to, aby figura wzorcowa stanowiła średnią arytmetyczną z lokalizacji poszcze gólnych kropek we wszystkich obrazach utworzonych metodą transfor macji.
Ryc. 3.3. Figury wzorcowe oraz ich przekształcenia użyte w badaniach Posnera i Keelego (1968,1970) nad definicją prototypu jako średniej z cech.
Zadaniem osób badanych było najpierw przyswojenie sobie czterech pojęć sztucznych - każde z nich odnosiło się do jednego z czterech wyjściowych układów kropek. W tej fazie eksperymentu badanym nie pokazywano jednak w ogóle obrazów wzorcowych, a więc figur matrycowych sprzed transformacji. Sortowali oni otrzymane obrazki do czterech różnych kategorii (paradygmat selekcji; Bruner, Goodnow, Austin, 1957; zob. paradygmat 3.1). Kiedy już przyswoili sobie procedury identyfikacyjne i bezbłędnie rozróżniali desygnaty czterech sztucznych pojęć, otrzymywali kolejną porcję kart z zadaniem zaliczenia ich do jednej z czterech wcześniej wyuczonych kategorii. Były to inne egzemplarze właśnie przyswojonych pojęć niż znajdujące się w zestawie kart przeznaczonych do procesu uczenia. W nowej serii kart zaprezentowano także osobom badanym wyjściowe układy kropek, nie informując jednak o tym, iż są to wzorce sprzed transformacji. Posner i Keele wykazali, że chociaż uczestnicy eksperymentu nigdy nie doświadczyli wzorcowego układu kropek w fazie przyswajania pojęć, bardzo często uznawali wzorzec pokazywany im dopiero w końcowej fazie klasyfikacji za bodziec prezentowany już wcześniej, w fazie uczenia. Im bardziej klasyfikowany obraz nowej serii był podobny do matrycy wyjściowej, tym większe było prawdopodobieństwo jego poprawnego zaliczenia do odpowiadającej mu kate
118
Rozdział 3. Pojęcia i schematy
gorii. Tym szybciej była również podejmowana decyzja o jego przynależności kategorialnej. Posner i Keele udowodnili w ten sposób, że - przynajmniej w przy padku pojęć sztucznych - kategoryzujący mogą w procesie przyporządkowywania desygnatów do kategorii nadrzędnych posługiwać się typowymi reprezentantami tych kategorii w formie średniej arytmetycznej właściwości egzemplarzy wcześniej sklasyfikowanych. Wykazali również, że percepcyjne doświadczenie prototypu nie jest koniecznym warunkiem formowania się tego typu reprezentacji umysłowej. Podobne wyniki uzyskali również Franks i Bransford (1971) oraz Reed (1974). W swoich badaniach Franks i Bransford pokazywali uczestnikom karty zawierające przedstawienia figur geometrycznych. Transformacji dokonywano poprzez zmianę lokalizacji figur geometrycznych przy zachowaniu ich liczby oraz rodzaju albo przez usuwanie lub też zamianę niektórych figur. Stopień podobieństwa obiektów transformowanych i oryginalnych był mierzony liczbą operacji przekształcających pierwotny obraz. Franks i Bransford potwierdzili wszystkie wyniki uzyskane przez Posnera i Keele. Dodatkowo wykazali, że subiektywna pewność wcześniejszego kontaktu z nowym obrazem zwiększa się wraz ze zmniejszaniem się stopnia niepodobieństwa pomiędzy tym obrazem a wzorcowym obrazem karty, będącym podstawą do transformacji. Z kolei w badaniach Reeda materiał eksperymentalny otrzymano poprzez dokonywanie transformacji na zdjęciach twarzy - zmianę odległości pomiędzy charakterys tycznymi elementami twarzy (usta, nos, brwi) lub wielkości tych elementów. Reed uzyskał wyniki analogiczne do wyżej omawianych. Bardziej szczegółową analizę wyników badań nad typowością, rozumianą jako średnia arytmetyczna właściwości desygnatów, przedstawia Trzebiński (1981, 1986). Próba zdefiniowania prototypu jako średniej arytmetycznej ma jednak pewne ograniczenia i wady. Nie wiadomo, po pierwsze, czy wyniki podobne do wyżej omawianych udałoby się uzyskać w przypadku pojęć naturalnych. Pod czas gdy stosunkowo łatwo jest wyobrazić sobie średnią arytmetyczną z możliwych lokalizacji punktów w układzie współrzędnych na płaszczyźnie, czy nawet średnią arytmetyczną z odległości pomiędzy poszczególnymi elementami twarzy, to jednak znacznie trudniej jest zrozumieć, czym mogłaby być np. średnia arytmetyczna cechy „lotność” w przypadku desygnatów kategorii „ptaki”. Przecież ptaki albo latają, z reguły znakomicie, albo nie latają niemal w ogóle, a średnia tej właściwości charakteryzowałaby prototyp na przeciętnym poziomie. Po drugie, prototyp, zwłaszcza kategorii naturalnej, wy daje się (naiwnie może) egzemplarzem rzeczywistego obiektu, z którym jed nostka już się spotkała, choćby w najodleglejszej przeszłości. Tymczasem, gdyby zasadę tworzenia prototypów przez uśrednianie właściwości desygnatów przenieść z kategorii sztucznych na naturalne, to prototyp byłby raczej nie istniejącym obiektem, hybrydą złożoną z cech istniejących w rzeczywistości, ale nigdy nie występujących razem. Prototyp taki nie miałby w ogóle szansy pojawić się w indywidualnym doświadczeniu. Takie wyobrażenie prototypu jest intuicyjnie sprzeczne z zasadą typowości. Dlatego też Neumann (1974) zaproponował, aby za prototypowego repre zentanta danej kategorii pojęciowej uznać najczęściej napotykany egzemplarz tej kategorii. Zamiast średniej byłaby to swoista wartość „modalna” desygnatów spotykanych przez jednostkę w indywidualnym doświadczeniu. Niestety,
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
119
również i ta definicja prototypu nie jest pozbawiona wad. Czasami bowiem doświadczenie dotyczy takiej samej lub podobnej liczby różnych egzemplarzy danej kategorii. W takim wypadku bardzo trudno jest wyznaczyć modalną; w pewnych warunkach może to nawet być matematycznie niemożliwe, zwłasz cza w sytuacji równoliczności desygnatów. Oznacza to, że w odniesieniu do kategorii zawierających desygnaty o podobnej częstości występowania prototyp może nie istnieć w ogóle. Tymczasem wyniki badań Rosch i jej współpracowni ków przekonują o powszechności zjawiska prototypowości, i to zarówno w przy padku pojęć sztucznych, jak i naturalnych. W bardziej umiarkowanej wersji swojej koncepcji Neumann (1974; Bower, Neumann, 1973) twierdzi, że proto typem mógłby być egzemplarz posiadający najczęstsze cechy desygnatów reprezentowanych w ramach wspólnej kategorii pojęciowej. Prototyp byłby więc nie tyle modalną desygnatów, ile modalną z ich właściwości. Próbując rozstrzygnąć, czy bliższa prawdzie jest koncepcja prototypu jako średniej arytmetycznej czy modalnej, Francuz (1991) ustalił, że podobieństwo klasyfikowanego egzemplarza do prototypu modalnego w znacznie większym stopniu skraca czas jego klasyfikacji jako desygnatu kategorii niż jego podobieństwo do prototypu średniego. Wynik ten świadczy na korzyść koncepcji Neumanna, a przeciwko teorii Posnera i Keele, choć nie wyklucza reprezento wania w umyśle zbioru desygnatów w postaci obu rodzajów prototypów (modalna, średnia) i korzystania z nich w zależności od wymagań sytuacji. Kon cepcja Neumanna pozostaje też nadal w sprzeczności z wynikami badań Rosch i współpracowników, dotyczącymi niezależności procesu klasyfikowania desygnatów na skali typowości od częstości ich występowania w indywidualnym doświadczeniu - na pojęciu częstości występowania opiera się przecież matematyczne wyznaczanie modalnej. Poglądy Neumanna oraz Posnera i Keele trudno pogodzić z przekonaniem, iż prototyp jest względnie trwałą reprezentacją umysłową. Tymczasem zarówno prototyp średni, jak i prototyp modalny mogą podlegać znacznym wahaniom ze względu na właściwości kolejnych przyswajanych desygnatów kategorii pojęciowej, której byłyby reprezentantem. Definicje prototypu w kategoriach średniej lub modalnej cech oraz mo dalnej desygnatów nie spełniły więc oczekiwań. Dlatego Rosch (1975) spró bowała jeszcze raz doprecyzować konstrukt prototypu. Stwierdziła, że typowy egzemplarz zawsze służy za punkt odniesienia dla mniej typowego. Raczej skłonni jesteśmy mówić, że „elipsa jest prawie kołem”, niż stwierdzać, że „koło jest prawie elipsą”. Świadczy to na korzyść koncepcji prototypu jako punktu odniesienia dla mniej typowych desygnatów, a przeciwko teoriom cech, zgodnie z którymi porównanie obiektów ze względu na ich właściwości powinno być symetryczne. Do kolejnych badań (Rosch i Mervis 1975; Rosch i in., 1976b) wybrano więc po 20 desygnatów z sześciu różnych kategorii naturalnych (pojazdy, broń, ubrania, warzywa, owoce, meble). Osoby badane w pierwszej kolejności wypisywały cechy wszystkich wybranych desygnatów niezależnie od ich przy należności kategorialnej. Następnie ich zadaniem było uszeregowanie każdego desygnatu w obrębie każdej kategorii na skali typowości. Co najwyżej jedna cecha została wymieniona jako właściwość wspólna wszystkim 20 desygnatom należącym do danej kategorii. Mimo tak dużej rozbieżności, sugerującej
120
Rozdział 3. Pojęcia i schematy
nieistnienie twardych rdzeni pojęciowych, oceny typowości dokonywane przez badanych pokrywały się, wskazując wyraźnie na istnienie prototypowych egzemplarzy poszczególnych kategorii. Uczestnicy eksperymentu za najbardziej typowych uznawali tych przedstawicieli kategorii, którzy podzielali jak najwięcej cech wspólnych z pozostałymi egzemplarzami tej samej kategorii. Za najbardziej typowych uznawano również tych przedstawicieli kategorii, którzy podzielali najmniej cech wspólnych z egzemplarzami innych kategorii. Powyższe prawidłowości posłużyły Rosch do zdefiniowania wskaźnika podo bieństwa rodzinnego (family resemblance)1. Według Rosch prototyp to ten spośród egzemplarzy, który jest najbardziej podobny do wszystkich innych desygnatów danej kategorii i najmniej podobny do desygnatów innych kategorii. Prowadząc badania w paradygmacie zaproponowanym przez Rosch i współpracowników, Hampton (1979) polecił dodatkowo swoim respondentom wypisać cechy definicyjne, ich zdaniem decydujące o zaliczeniu jakiegoś desyg natu do konkretnej kategorii pojęciowej. Także i w jego eksperymencie okazało się, że co najwyżej jedna cecha definiuje rdzeń pojęciowy - badani byli zgodni zarówno co do uznania tej właściwości za cechę definicyjną, decydującą o zaliczeniu desygnatu do kategorii, jak i co do uznania jej za ważną dla opisu samego desygnatu. Posiadanie przez egzemplarz jak największej liczby cech, w odniesieniu do których większość badanych jest zgodna w ocenie ich wagi dla definicji kategorii nadrzędnej, okazało się najlepszym predyktorem typowości. Im więcej cech ocenianych przez większość badanych jako typowe dla danej kategorii, tym bardziej prawdopodobne było to, że desygnat otrzyma wysokie oceny na skali typowości. Na podstawie uzyskanych wyników Hampton zaproponował koncepcję pojęcia polimorficznego (polymorphous concept). Według niego, pojęcia definiowane są przez pewną liczbę cech charakterystycz nych. Właściwością tych cech jest to, że nie przysługują one żadnemu z desygnatów definiowanego pojęcia w stopniu koniecznym i wystarczającym. Prototypem pojęcia polimorficznego jest natomiast ten desygnat, który posiada największą liczbę cech charakterystycznych. Kończąc opis badań, których rezultaty odnoszą się do koncepcji prototypu, warto zauważyć, że wyniki eksperymentu Hamptona wskazują na brak możli wości rozstrzygnięcia sporu o naturę trwałych reprezentacji pojęciowych, jaki powstał między zwolennikami koncepcji cech i teorii wzorców. Prototyp można bowiem określić zarówno jako desygnat uzyskujący w klasyfikacjach typowości zbieżne i najwyższe oceny, jak też jako egzemplarz charakteryzujący się naj większą liczbą cech charakterystycznych, podzielanych przez inne egzemplarze tej samej kategorii. Teoria prototypów doczekała się gruntownej krytyki. Przede wszystkim stwierdzić należy, że wyniki badań nad posługiwaniem się prototypami pojęć, chociaż wiele mówią o tym, w jaki sposób ludzie identyfikują egzemplarze pojęć, czyli jak funkcjonują ich procedury identyfikacyjne, to jednak nie mówią niemal nic o tym, jaka jest istota pojęcia, a więc jaka jest jego struktura. Zwolennicy koncepcji pojęcia jako listy cech znacznie więcej miejsca poświęcali problemom strukturalnym, co doprowadziło zarówno do wyszczególnienia różnego rodzaju strukturalnych właściwości reprezentacji pojęciowych (np. cech definicyjnych, 1 Pojęcie podobieństwa rodzinnego wewnątrz kategorii pochodzi od Ludwika Wittgensteina.
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
121
cech charakterystycznych), jak i zdefiniowania przestrzeni semantycznej, „roz piętej” na najważniejszych wymiarach danego pojęcia. Badania nad prototypami skupiały się wokół aspektów funkcjonalnych, czyli wokół korzystania z proto typu jako punktu odniesienia w procesach kategoryzacji. Natomiast struktu ralny aspekt sporu o naturę reprezentacji niemal nie był przez zwolenników stanowiska prototypowego poruszany (Murphy, Medin, 1985). Z badań w paradygmacie podejmowania decyzji semantycznych wynika, że czas takiej decyzji rośnie wraz ze wzrostem nietypowości obiektu. Jednakże z faktu tego nie wynika jeszcze, że egzemplarze mniej typowe, będąc mniej podobne rodzinnie, są znacznie bardziej oddalone w przestrzeni semantycznej od kategorii nadrzędnej niż prototyp. Wyniki uzyskiwane w tym paradygmacie są bowiem zgodne z koncepcją prototypów, bo mniejsze podobieństwo rodzinne nietypowego obiektu wiąże się z większym dystansem pomiędzy nim a jego odniesieniem w procesie kategoryzacji, czyli prototypem, a także z koncepcją probabilistyczną, gdyż nietypowy obiekt wymusza konieczność uruchomienia drugiego, bardziej szczegółowego etapu porównywania cech (Osherson, Smith, 1981). Koronne dla zwolenników koncepcji prototypów wyniki badań nad klasyfikowaniem desygnatów także można wyjaśnić zarówno przez odwołanie się do istnienia prototypów, jak i definiując punkt odniesienia dla dokonywa nych porównań poprzez zbiór cech charakterystycznych, które są relatywnie powszechne wśród desygnatów i decydują o ich typowości (Hampton, 1979). Koncepcje probabilistyczne i teorie prototypów mówią więc o tej samej struk turze i podobnym funkcjonowaniu reprezentacji pojęciowych. Ujmują jednak proces kategoryzacji z dwóch różnych perspektyw: egzemplarza posiadającego określone cechy (koncepcje prototypów) lub zbioru typowych cech konstytuu jących specyficzny desygnat (koncepcje probabilistyczne). Z tego, że ktoś nie potrafi podać wspólnych właściwości egzemplarzy wchodzących w skład jakiegoś pojęcia, nie można wnioskować, że zestaw takich cech w ogóle nie istnieje (Smith, Medin, 1981). W badaniach Lewickiego (1968) poprawnie zdefiniować istotę pojęcia potrafiło przecież tylko 20% osób. Często zdarza się również, że ktoś nie potrafi zwerbalizować jakiegoś fragmentu wiedzy, ale skutecznie go stosuje (zob. rozdz. 4). Podkreślić także trzeba, że teorie prototypów nie stosują się do wszystkich reprezentacji pojęciowych (Hampton, 1981). Bardziej abstrakcyjne kategorie pojęciowe, jak się wydaje, nie posiadają swoich prototypów. Wprawdzie, jak wykazała Rosch (1973), istnieją mniej i bardziej prototypowe dyscypliny nauki czy przestępstwa, ale nie ma mniej i bardziej typowych praw, reguł, wierzeń, przekonań czy instynktów. Prototypy, według Hamptona, mają ograniczone zastosowanie, występują tylko tam, gdzie możliwe jest podanie kompletnej listy desygnatów danej kategorii lub tam, gdzie podejrzewa się, że taka kompletna lista istnieje. Reprezentacje takie można określić jako pojęcia konkretne (iconcrete concepts). Późniejsze badania nad możliwymi umysłowymi odzwier ciedleniami emocji w systemie poznawczym (ramka 3.1) złagodziły nieco ten krytyczny wobec teorii prototypów argument. Z analizy przedstawionych argumentów wynika, że zwolennikom koncepcji prototypów udało się dostarczyć klarownych odpowiedzi na pytanie o sposób funkcjonowania reprezentacji pojęciowych. Zgodnie z ustaleniami Rosch, zbiór
122
Rozdział 3. Pojęcia i schematy
Ramka 3.1
Badania nad umysłowymi reprezentacjami emocji Twierdzenie Hamptona (1981), że tylko pojęcia konkretne mogą posiadać swoje prototypy, wywołało falę badań nad prototypami pojęć abstrakcyjnych {abstract concepts). Jako przykład wybrano reprezentację pojęciową emocji (Fehr, 1988; Russell, 1991; Fehr, Russell, 1991). W badaniach wykazano jednak (wbrew temu, co sądził Hampton), że reprezentowanie emocji w systemie poznawczym spełnia założenia koncepcji prototypów Rosch. Na nadrzędnym poziomie odzwierciedlania funkcjonują w umyśle pojęcia odpowiadające różnym emocjom (Russell, 1991). Są one niezbyt precyzyjnie zdefiniowane, gdy chodzi o właściwości definicyjne, i słabo odróżnialne od innych stanów i procesów afektywnych (Kolańczyk, 2004). Jednak już na poziomie podstawowym poszczególne rodzaje emocji są znacznie lepiej określone przez listy cech - definicyjnych i charakterystycznych - odznaczając się różnym stopniem typowości (Fehr, Russell, 1991). Przykładem może być lęk, który jest emocją uznawaną za bardzo typową; duma zaś często bywa stanem w ogóle nieklasyfikowanym przez ludzi jako przykład emocji. Badani proszeni o nazywanie emocji, zawartych w prezentowanych im opisach wydarzeń, najczęściej posługują się określeniami z poziomu podstawowego (Fehr, Russell, 1984); szczególnie dzieci nabywają pojęcia dotyczące emocji na tym właśnie poziomie (Bretherton, Beeghly, 1982). Na poziomie podrzędnym reprezentacje poszczególnych rodzajów emocji mają już strukturę wyłącznie prototypową. Uczestnikom eksperymentu nie sprawia większych kłopotów klasyfikowanie przykładów bójek w trakcie meczu hokejowego jako typowych lub mniej typowych zachowań agresywnych, choć ze zdefiniowa niem takiego zachowania na podstawie cech definicyjnych mieliby z pewnością duże problemy (Lysak, Rule, Dobbs, 1989). Należy więc stwierdzić, iż emocje mogą być reprezentowane w umyśle zarówno w formie list cech, jak i egzemplarzy prototypowych. Im niższy poziom ogólności reprezentacji, tym większe prawdopodobieństwo reprezentowania konkretnej emocji w formie prototypu i tym niższe prawdopodobieństwo odzwierciedlania jej w formie zbioru cech. Reprezentacja emocji w postaci listy cech dotyczy w zasadzie tylko najbardziej abstrakcyjnej, nadrzędnej reprezentacji pojęciowej emocji, niemożliwej do odzwierciedlenia w postaci prototypu.
obiektów tej samej kategorii jest reprezentowany w umyśle przez prototyp, który działa jako punkt odniesienia dla klasyfikacji pozostałych egzemplarzy kategorii. Prototyp może też być definiowany jako najbardziej typowy przedstawiciel danej kategorii, w najwyższym stopniu podobny do innych desygnatów tej kategorii (Rosch); jako egzemplarz charakteryzujący się średnią arytmetyczną właści wości wszystkich pozostałych egzemplarzy kategorii (Posner i Keele); lub też jako desygnat, który charakteryzowany jest przez właściwości najczęściej spotykane w ramach kategorii (Neumann). Niezależnie od sposobu określenia, prototyp jest konkretnym egzemplarzem. Kwestią sporną pozostaje, czy jest on egzemplarzem rzeczywiście istniejącym, ale problem ten ma znaczenie jedynie w odniesieniu do pojęć naturalnych. Trzeba przy tym pamiętać, że zgodnie z koncepcją prototypów proces kategoryzacji polega na określaniu stopnia
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
123
podobieństwa (dystansu semantycznego) pomiędzy kategoryzowanym egzem plarzem a prototypem, czego empirycznym odzwierciedleniem są różnice w ran kingach typowości. Według zwolenników koncepcji reprezentacji umysłowych w formie prototypów, pojęcia nabywane są na podstawowym poziomie hierarchii poprzez doświadczanie egzemplarzy typowych.
3.2.4. Teorie egzemplarzy Zdaniem Medina i Schaffera (1978), sprawdzanie przynależności kategorialnej nie zawsze odbywa się poprzez odniesienie klasyfikowanego desygnatu do prototypu. Czasami w procesie kategoryzacji wykorzystywane mogą być inne, z jakiegoś powodu ważne, egzemplarze tego samego pojęcia. Według zwo lenników teorii egzemplarzy (exemplar view), reprezentacja pojęciowa składa się z odrębnych opisów egzemplarzy danego pojęcia. Mogą nimi być zarówno odzwierciedlenia pojedynczych przedstawicieli kategorii (wśród nich egzem plarz prototypowy), jak i ich podzbiory wchodzące w zakres danego pojęcia. Na przykład właściciel jamnika może mieć reprezentację pojęciową psów w postaci opisów: własnego psa, wilczura - psa sąsiada, jamniczki - suczki sąsiadki oraz reszty napotkanych psów. Własny pies zapewne będzie w takim przypadku reprezentował egzemplarz prototypowy kategorii „pies”, z czym nie zgodziłoby się wielu innych właścicieli tych zwierząt (o czym świadczą dyskusje na spa cerze „o wyższości jamników nad wilczurami”). Wilczur sąsiada i jamniczka sąsiadki będą ważnymi egzemplarzami wyróżnionymi ze względu na emocje (złość i miłość) wzbudzane u własnego ulubieńca, a reszta desygnatów będzie stanowić jedynie tło dla ważnych przedstawicieli nadrzędnej kategorii. Zatem reprezentacja pojęciowa psów będzie u właściciela jamnika przedstawiona w formie czterech opisów egzemplarzy: trzech indywidualnych (w tym jednego prototypowego) i jednego zbiorowego. W teorii tu przedstawianej proces kategoryzacji polega na porównywaniu egzemplarzy. Jeśli napotkany obiekt jest podobny do opisu jakiegoś ważnego egzemplarza już składającego się na reprezentację pojęciową, np. jamnika, jamniczki lub wilczura, wówczas zo staje uznany za przynależny do kategorii i sam staje się z kolei punktem odniesienia dla następnych porównywanych, potencjalnych przedstawicieli kategorii. Podejście egzemplarzowe zdaje się wyjaśniać relatywnie wysoki poziom wiedzy właścicieli psów na temat swoich ulubieńców i często niemal całkowity brak wiedzy na temat innych ras (pytania na spacerze: „A jaka to rasa?”). Porównywanie opisów wszystkich egzemplarzy tworzących reprezentację pojęciową z opisem nowego egzemplarza, dopiero aspirującego do kategorii, byłoby procesem czasochłonnym. Dlatego też zwolennicy koncepcji egzempla rzowych skłaniają się ku twierdzeniu, że w trakcie procesu kategoryzacji oceniamy podobieństwo nowego egzemplarza z pierwszym napotkanym desygnatem pojęcia (Reed, 1971). Stąd też niezwykle ważne mają być pierwsze doświadczenia z egzemplarzami danej kategorii pojęciowej, gdyż dzięki nim można uniknąć wielu błędów kategoryzacji. Jeśli tym pierwszym obiektem będzie typowy egzemplarz, to w trakcie późniejszej kategoryzacji możliwość popełnienia błędu będzie mniejsza, jeśli mniej typowy - większa. Dziecko, które
124
Rozdział 3. Pojęcia i schematy
jako pierwszy egzemplarz psa napotka chihuahua, który mieści się zazwyczaj w kieszeni marynarki, będzie zapewne przez jakiś czas miało kłopoty z klasyfikowaniem nieco większych przedstawicieli rozważanej kategorii. Glass i Holyoak (1975), prowadząc badania w paradygmacie podejmowania decyzji semantycznych, wykazali, że proces ten może polegać, w pewnych szczególnych warunkach, na porównywaniu pojedynczych egzemplarzy. Po prosili oni osoby badane o weryfikację prostych zdań fałszywych, zawierających duży kwantyfikator (np. „wszystkie ptaki to psy”). Okazało się, że zdania te były bardzo szybko weryfikowane przez badanych jako fałszywe - na tyle szybko, że trudno było przypuszczać, że osoby badane podejmują swoje decyzje na pod stawie porównywania jakichkolwiek list cech albo też na podstawie zestawiania prototypowych przedstawicieli obu kategorii pojęciowych (psy vs. ptaki). Tak krótki czas decyzji mógł być spowodowany odnalezieniem przez badanych w procesie weryfikacji zdania jednego kontrprzykładu, tj. egzemplarza jednej kategorii nie będącego desygnatem drugiej (np. „wróbel jest ptakiem i nie jest psem”). Poczynienie takiego ustalenia pozwala z łatwością sfalsyfikować powyższe zdanie. Także i teorie egzemplarzy doczekały się gruntownej krytyki. Wiele kry tycznych argumentów skierowanych przeciwko teoriom prototypów, odnosi się również do teorii egzemplarzy. Obie teorie proponują bowiem podobne rozwiązania w kwestii opisu i wyjaśnienia procesu kategoryzacji. Inaczej jednak w koncepcjach egzemplarzowych przedstawia się kwestia struktury pojęcia i procesu jego nabywania. Zgodnie z poglądem egzemplarzowym, poszczególne desygnaty są często z różnych względów traktowane jako unikatowe. Można zatem sformułować pytanie o to, do jakiego stopnia brak podobieństwa pośród kategoryzowanych egzemplarzy jest tolerowany przez kategorię nadrzędną. Teorie cech (zgodność w zakresie rdzenia pojęciowego) czy prototypów (wskaźnik podobieństwa ro dzinnego) wskazują na pewne miary tej tolerancji; teoria egzemplarzy takiej miary nie podaje. Konsekwencją braku miary podobieństwa egzemplarzy w ra mach pojedynczej kategorii mogą być problemy z kategoryzacją. Stosując egzemplarzową formę kategoryzacji, właściciel jamnika nie będzie miał zapewne problemów z zaliczeniem do kategorii „pies” takiego przedstawiciela czworo nożnych, który niewiele różni się od idącego przy jego nodze (jamnik) lub też takiego, który toczy pianę z pyska na widok jego ulubieńca (wilczur). Jednakże próbując zaklasyfikować inne nieznane desygnaty (chihuahua), prawdopodob nie nie uniknie błędu kategoryzacji. Przede wszystkim bardzo trudno byłoby stosować egzemplarzową procedu rę identyfikacji przynależności kategorialnej w naukach ścisłych, gdzie dowody twierdzeń dotyczą z reguły klas obiektów, a nie pojedynczych desygnatów. Pro cedura egzemplarzowej kategoryzacji, jeśli w ogóle ma miejsce w procesach poznawczych człowieka, dotyczy więc raczej pojęć naturalnych i konkretnych. Trudnym do rozwiązania problemem jest również ustalenie tego, w jaki sposób w ramach reprezentacji pojęciowej przechowywane są pojedyncze egzemplarze, a jak - tworzą się ich podzbiory. W szczególności nie bardzo wiadomo, w jaki sposób umysł przechowuje wiedzę o podzbiorze (np. psy myśliwskie) w postaci pojedynczego egzemplarza Nie jest też do końca jasne,
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
125
w jakim celu mają być przechowywane wszystkie opisy doświadczanych desygnatów, skoro punktem odniesienia w procesie kategoryzacji jest tylko pierwszy napotkany w doświadczeniu indywidualnym bądź taki, który jest ważny z przyczyn osobistych. Nie można tych krytycznych argumentów pominąć, ponieważ wynika z nich, że koncepcje egzemplarzowe sugerują najmniej ekonomiczną formę trwałego reprezentowania obiektów rzeczywistych w umyśle. Najważniejszy desygnat, będący punktem odniesienia, jest wprawdzie nabywany na drodze spostrzegania i wyodrębniania egzemplarzy, ale jest nim z reguły pierwszy napotkany przedstawiciel kategorii. W jakim celu jest więc przyswajana cała reszta egzemplarzy? Być może tylko przechowywanie opisów wszystkich wyodrębnionych desygnatów danej kategorii umożliwia elastyczne zmiany w zakresie ważnych egzemplarzy, będących punktem odniesienia w procesie kategoryzacji. Bez możliwości odniesienia nowo napotkanego obiektu zarówno do samego prototypu, jak i do zbioru wszystkich dotychczas napotkanych egzemplarzy, jakiekolwiek zmiany w średnich posiadanych właściwości, modalnych częstości występowania, a w szczególności we wskaźniku podobieństwa rodzinnego, nie byłyby możliwe. A bez takich zmian system pojęć byłby sztywny i niewydolny. 3.2.5. Porównanie koncepcji reprezentacji pojęciowych Koncepcje reprezentacji pojęciowych różnią się w zakresie odpowiedzi na trzy kluczowe pytania. Pierwsza kwestia sporna dotyczy struktury reprezentacji pojęciowych, a więc sposobu trwałego odzwierciedlania w systemie poznaw czym rzeczywistych obiektów i zjawisk. Zwolennicy poszczególnych koncepcji reprezentacji pojęciowych różnią się również co do poglądów na temat sposobu nabywania reprezentacji pojęciowych, zarówno tych pierwszych, jakie kształto wane są we wczesnych latach rozwoju umysłu, jak i późniejszych, przyswaja nych w praktyce codziennej przez osoby dorosłe. Ostatni sporny problem to ustalenie zbioru reguł procesu kategoryzacji, a więc wskazanie metody klasy fikacji nowo napotkanych obiektów i prawidłowego włączania ich do już zdefiniowanych kategorii pojęciowych. Kwestią odrębną wydaje się zakres stosowalności poszczególnych koncepcji. Z przedstawionych powyżej argumen tów wynika, iż żadna z rozważonych koncepcji nie opisuje ani nie wyjaśnia struktury oraz funkcjonowania wszystkich rodzajów reprezentacji pojęciowych. Aby zatem opisać i wyjaśnić problem trwałego reprezentowania świata w systemie pojęć, trzeba zastosować podejście eklektyczne. Zgodnie z nim teorie cech, w szczególności teorie klasyczne, odnoszą się raczej do pojęć ma trycowych i abstrakcyjnych, a teorie wzorców, w szczególności teorie pro totypów, odnoszą się do pojęć naturalnych i konkretnych. Podsumowanie poszczególnych stanowisk w sporze o naturę reprezentacji pojęciowych przedstawiono w tabeli 3.3.
126
Rozdział 3. Pojęcia i schematy
Tab. 3.3. Podsumowanie stanowisk w sporze o naturę pojęć. Teorie reprezentacji
Struktura reprezentacji
Sposób nabywania
Sposób kategoryzacji
Zakres stosowalności
klasyczne
zestaw cech definicyjnych (istotnych)
abstrahowanie i testowanie hipotez
porównanie zestawów cech definicyjnych
matrycowe, abstrakcyjne
probabilistyczne
zestaw cech definicyjnych i charaktery stycznych
abstrahowanie
porównanie naturalne, konkretne zestawów wszystkich cech, a następnie ustalenie proporcji cech definicyjnych
prototypów
prototyp (średnia, modalna, podobieństwo rodzinne)
doświadczanie typowych egzemplarzy z poziomu podstawowego
porównanie z prototypem (ustalenie dystansu semantycznego)
naturalne, konkretne, polimorficzne, niektóre abstrakcyjne
egzemplarzy
wszystkie napotkane egzemplarze
doświadczanie wszelkich egzemplarzy
porównanie z pierwszym napotkanym egzemplarzem
naturalne, konkretne
3.3. Dynamiczna koncepcja umysłu, czyli o relacjach między pojęciami 3.3.1. Teorie sieci semantycznej Reprezentacje pojęciowe nie istnieją w systemie poznawczym w oderwaniu od siebie. Wiążą je ze sobą złożone relacje opisane w modelu sieci semantycznej (.network model of semantic memory; Collins, Quillian, 1969; Collins, Loftus, 1975; zob. rozdz. 4). Zgodnie z teorią sieci semantycznej, pojęcia są przechowy wane na trwale w pamięci w postaci zhierarchizowanej struktury sieciowej, składającej się z punktów węzłowych i wiążących te punkty relacji. W poszcze gólnych punktach węzłowych sieci kodowane są różnorodne reprezentacje pojęciowe. Podstawowym założeniem modeli sieci semantycznej, mającym konsekwencje również dla struktury i funkcjonowania pojedynczych kategorii pojęciowych, jest hipoteza dotycząca właściwości charakteryzujących pojęcia. Są one przyporządkowane reprezentacjom pojęciowym na możliwie najwyższym poziomie hierarchii ogólności. Właściwość „wykonywanie pieśni godowej” jest więc przypisana pojęciu „ptak”, nie zaś osobno każdej z podrzędnych reprezentacji pojęciowych poszczególnych rodzajów ptaków (np. kanarka, wróbla). Natomiast cecha „latanie” nie jest odzwierciedlana przez reprezentację pojęciową „ptak”, gdyż część ptaków to nieloty (np. kiwi), a część - bezloty (np. pingwin). Proponowane założenie strukturalne spełnia postulat ekonomii funkcjonowania poznawczego (hipoteza „skąpca poznawczego” - zob. rozdz. 1), choć trzeba również zwrócić uwagę na to, że ekonomia struktury sieci może
3.3. Dynamiczna koncepcja umysłu
127
czasami być związana z kosztami jej funkcjonowania. Ekonomiczna organizacja strukturalna sieci semantycznej pozwala na oszczędne wykorzystanie „powierz chni magazynowej” pamięci długotrwałej, w której zakodowane są reprezentacje pojęciowe. Jednakże owo „oszczędne” zagospodarowanie pamięci związane jest z kosztem wydłużenia czasu wydobywania informacji bardziej ogólnych, pochodzących z wyższego poziomu w hierarchii, czy też bardziej specyficznych, przynależnych do niższego poziomu w hierarchii pojęciowej. Zasadę przyporządkowania właściwości odpowiednim - ze względu na poziom ogólności - reprezentacjom pojęciowym wykazali w swoich ekspery mentach Collins i Quillian (1969,1970). Prowadzili oni badania w paradygmacie podejmowania decyzji semantycznych, prosząc osoby badane o weryfikowanie zdań zawierających jakieś pojęcie i przysługującą temu pojęciu właściwość (np. „Czy ptak lata?”). Collins i Quillian ustalili, że czas weryfikacji prawdziwości takich zdań jest bardzo krótki w przypadku właściwości odnoszących się ściśle do wybranego pojęcia (np. „Czy kanarek jest żółty?”) i relatywnie dłuższy w przypadku właściwości odnoszących się do wielu pojęć nadrzędnych (np. „Czy kanarek ma skórę?”). W pierwszym przypadku, zgodnie z założeniem dotyczącym organizacji strukturalnej sieci semantycznej, informacja o właści wości („żółtość”) jest dostępna w węźle reprezentacji pojęciowej („kanarek”). Dlatego proces weryfikacji prawdziwości zdania jest bardzo szybki. Natomiast w przypadku drugim informacja o „posiadaniu skóry”, umożliwiająca zwe ryfikowanie prawdziwości zdania, jest przypisana szerszej kategorii pojęciowej („zwierzęta”), znajdującej się na znacznie wyższym poziomie ogólności. W celu wykonania zadania uczestnik eksperymentu musi więc w tym przy padku odwołać się do innej reprezentacji pojęciowej, pochodzącej z wyższego poziomu hierarchii, niż sugerowana przez obiekt występujący w weryfikowa nym zdaniu („ptak”). Konieczność takiego odwołania powoduje właśnie wydłużenie czasu poszukiwania informacji, a zatem - pojawienie się kosztów czasowych. Punkty węzłowe sieci, a więc zakodowane w nich pojęcia, są powiązane relacjami znaczeniowymi. Relacja semantyczna (semantic relation) dwóch reprezentacji pojęciowych wyraża się sumą wszystkich połączeń pomiędzy ich desygnatami i właściwościami. Dwa pojęcia blisko ze sobą związane charakte ryzuje wielość wzajemnych połączeń w sieci, odpowiadająca wspólnocie ich i właściwości. Połączenia, zwane też ścieżkami sieci (network paths), są zróż nicowane pod względem wagi - im silniejszy związek pomiędzy dwiema repre zentacjami pojęciowymi, tym większej wagi nabiera łącząca je ścieżka, a w konsekwencji - tym łatwiej te dwa pojęcia wzajemnie się aktywują w toku przetwarzania (mechanizm rozprzestrzeniającej się aktywacji, ACT; Anderson, 1976; zob. rozdz. 4). Oznacza to, że sieć reprezentacji pojęciowych nie jest symetryczna ze względu na wagę połączeń między poszczególnymi węzłami typowi przedstawiciele nadrzędnych kategorii, a także typowe właściwości pojęć są powiązane silniejszymi relacjami semantycznymi. Świadczą o tym najkrótsze z możliwych czasy podejmowania decyzji semantycznych, dotyczących proto typów kategorii nadrzędnych (Smith, Shoben, Rips, 1973, 1974) czy też typowych właściwości pojęć (Conrad, 1972). Relacje semantyczne pomiędzy pojęciami mogą być dwojakiego rodzaju. Po pierwsze, mogą to być relacje zbudowane na połączeniach pozytywnych (np.
128
Rozdział 3. Pojęcia i schematy
„kura jest to ptak”; Collins, Quillian, 1969,1970). Po drugie, mogą to być relacje zbudowane na podstawie ścieżek zaprzeczających (np. „kot nie jest to pies”; Collins, Loftus, 1975). Możliwość istnienia relacji negatywnych wykazali Glass i Holyoak (1975) w opisywanym wcześniej (zob. rozdz. 3.2.4) badaniu nad podejmowaniem decyzji semantycznych. Stwierdzili bowiem, że im większy dystans semantyczny między dwiema reprezentacjami pojęciowymi, tym szyb ciej jest podejmowana decyzja dotycząca fałszywości zdania pozytywnie łączą cego te dwa pojęcia. Loftus i Loftus (1975) przywołują wiele danych empirycznych na potwier dzenie słuszności teorii sieci semantycznej jako strukturalnej i funkcjonalnej organizacji reprezentacji pojęciowych. Dane te pochodzą z czterech typów eksperymentów: (1) przywoływania desygnatów kategorii pojęciowych lub podawania nadrzędnych kategorii dla pojedynczych egzemplarzy (np. Loftus, 1973; zob. rozdz. 3.2.3); (2) sortowania egzemplarzy do kilku kategorii (np. Posner, Keele, 1968; zob. rozdz. 3.2.3); (3) podejmowania decyzji semantycz nych (np. Glass, Holak, 1975; zob. rozdz. 3.2.4); (4) sortowania egzemplarzy ze względu na ich typowość (np. Rosch, 1973; zob. rozdz. 3.2.3). Szersze omówienie tych danych znaleźć można w pracach Chlewińskiego (1999), Kurcz (1987, 1997), Maruszewskiego (1983, 2001) oraz Trzebińskiego (1981, 1986). Modele sieci semantycznej pozwalają na wyjaśnienie relacji znaczenio wych, wiążących poszczególne reprezentacje pojęciowe. W ramach teorii sieciowych uwzględniono wyniki badań dotyczących struktury i funkcjonowania indywidualnych pojęć. Węzły sieci definiowane są bowiem przez zestawy właściwości poszczególnych reprezentacji pojęciowych (koncepcje cech), a asy metria w zakresie relacji semantycznych wiąże się z powszechnie stwierdzanym efektem typowości (koncepcje probabilistyczne, teorie prototypów). Istnienie negatywnych ścieżek sieciowych jest z kolei konsekwencją stwierdzenia możliwości klasyfikacji na podstawie porównywania pojedynczych egzemplarzy (koncepcje egzemplarzowe). Dane empiryczne na temat modeli sieci seman tycznej, jak i koncepcji reprezentacji pojęciowych pochodzą zatem z tych samych eksperymentów.
3.3.2. Złożone struktury sieciow e Podstawowym problemem modeli sieci semantycznej oraz sieciowej organizacji reprezentacji pojęciowych jest fakt, iż „rozbijają” one system trwałej wiedzy o świecie fizycznym lub społecznym na mniejsze porcje informacji - pojedyncze reprezentacje pojęciowe. Wprawdzie pojęcia są powiązane relacjami zależnymi od wielkości dystansu semantycznego, ale trudno wyobrazić sobie, aby tylko za pomocą mechanizmu rozprzestrzeniającej się aktywacji możliwe było szybkie łączenie tych pojedynczych porcji informacji w złożoną wiedzę o świecie. Bez takiej trwałej, zintegrowanej wiedzy, elastyczne i adekwatne zachowanie w zmiennych warunkach bodźcowych nie byłoby możliwe. Postępowanie właściciela wobec psa (np. udanie się z nim na spacer) nie wynika z reguły z faktu, iż pies ten wykazuje się jakimiś pojedynczymi właściwościami (np. szczeka lub macha ogonem). Jest ono natomiast efektem zintegrowanej wiedzy dotyczącej w swej ogólności zwierząt domowych i ich zwyczajów oraz
3.3. Dynamiczna koncepcja umysłu
129
w szczególności zasad komunikacji pomiędzy człowiekiem a jego udomowio nymi zwierzętami. W celu rozwiązania problemu dostosowania organizacji sieci semantycznej do systemu zintegrowanej wiedzy zwolennicy modeli sieciowych zasugerowa li istnienie w ramach sieci większych, bardziej złożonych struktur poznaw czych, umożliwiających np. rozumienie nie tylko pojedynczych pojęć, ale całej komunikacji międzyludzkiej czy też nie tylko reagowanie na pojedyncze bodź ce, ale poprawne zachowanie w złożonych sytuacjach społecznych, takich jak np. obiad rodzinny w restauracji (Schank, Abelson, 1977). Struktury te wy różniają się szczególnie silnymi wewnętrznymi powiązaniami między poszcze gólnymi reprezentacjami pojęciowymi (Bartlett, 1932; Komatsu, 1992), co zgodnie z mechanizmem rozprzestrzeniającej się aktywacji powinno gwaranto wać natychmiastową aktywizację wszystkich kategorii pojęciowych konstytu ujących tę złożoną, schematyczną strukturę. Wprawdzie zwolennicy koncepcji sieciowych nie różnią się specjalnie w opisie i próbach wyjaśnienia organizacji i funkcjonowania owych złożonych struktur sieciowych, jednakże różnorodne nazwy, które im nadają, wywołują mylne wrażenie dużej ich różnorodności. Wśród najczęściej stosowanych określeń można wskazać: schematy, skrypty, tematy, gry, miniteorie, ramy, hipotezy, plany, pakiety czy oczekiwania (Chlewiński, 1999; Kurcz, 1987). Odrębne przedstawianie wszystkich teorii złożo nych struktur sieciowych wymagałoby wielu powtórzeń w odniesieniu do klu czowych założeń i stwierdzeń. Koncepcje te zostały już zresztą w literaturze polskiej opisane przez Chlewińskiego (1999). Dlatego poniżej omówimy tylko ogólne założenia i tezy teorii schematów (Rumelhart, Ortony, 1977; Rumelhart, 1980; Rumelhart, Norman, 1978, 1981), ram (Minsky, 1975) oraz planów, scen i tematów (Schank, Abelson, 1977; Schank, 1982, 1986).
3.3.3. Teoria schematów Według Rumelharta (1980; Rumelhart, Ortony, 1977), schematy (schemas) są dobrze zintegrowanymi fragmentami sieci semantycznej. W tych fragmentach zakodowany jest zarówno sens typowej sytuacji, do jakiej dany schemat się odnosi, jak i znaczenie typowej formy zachowania, która powinna zostać wygenerowana w reakcji na typową sytuację. Schematy różnią się poziomem ogólności. Reprezentują wiedzę ze wszystkich poziomów: od pojedynczych reprezentacji pojęciowych do rozbudowanych ideologii. Wśród schematów są takie, które mają bardzo wąski zakres stosowania, związany ze specyfiką sytuacji bodźcowej, do której się odnoszą. Przykładem może być schemat regulacji silnika benzynowego samochodu marki Nissan. Są jednak i takie, które mają bardzo szeroki zakres stosowalności - tu przykładem może być schemat zdawania egzaminów. Struktura schematów jest, zdaniem Rumelharta, hierar chiczna, podobnie jak struktura sieci reprezentacji pojęciowych. Schematy o szerokim zakresie stosowalności zawierają więc mniej ogólne struktury tego typu. Schemat zdawania egzaminu zawiera subschematy nauki do egzaminu czy rozwiązywania testów egzaminacyjnych. Ponadto złożone struktury sieciowe o szerokim zakresie stosowania (dużym stopniu ogólności) zawierają część rdzenną (core), tj. reprezentacje pojęciowe wspólne wszystkim sytuacjom z tego
130
Rozdział 3. Pojęcia i schem aty
zakresu, oraz część elastyczną (tracks), która pozwala na zastosowanie sche matu w konkretnej sytuacji bodźcowej, różniącej się w jakiś sposób od sytuacji typowej (Schank, Abelson, 1977). W ramach schematów możliwe jest także generowanie brakujących elementów systemu reprezentacji pojęciowych, jeśli relacje pomiędzy już zidentyfikowanymi elementami schematu takie elementy podpowiadają. Opisując funkcjonowanie schematów, Rumelhart (1980) odwołuje się do trzech analogii. Stwierdza, że schematy są jak gry. Każdy posiada bowiem dwa podstawowe elementy każdej gry: sekwencje wydarzeń, czyli swoisty scenariusz gry, oraz wykonawców poszczególnych czynności - aktorów z rozpisanymi dla nich rolami. Rumelhart dokonuje też porównania schematów do teorii, gdyż jego zdaniem - zawierają one naiwne, potoczne przekonania odnośnie do natury rzeczywistości. Kompletny zestaw schematów tworzy zaś naszą prywatną, zinte growaną wiedzę na temat praw funkcjonowania świata. Autor odnajduje także podobieństwo schematów do programów komputerowych. Wskazuje na to, we dług niego, przede wszystkim wewnętrzna budowa schematów, uwzględniająca subprocedury oraz programy sprawdzające skuteczność działania (por. systemy produkcji; Anderson, 1983a). Zauważyć jednak trzeba, że schematy są specy ficznymi programami, bowiem podobnie jak sztuczne sieci neuropodobne (PDP; Rumelhart, McClleland, 1986) mogą ulegać modyfikacjom na drodze uczenia się. Można wskazać kilka dróg nabywania i modyfikacji schematów (Rumel hart, Norman, 1978, 1981). Przede wszystkim już istniejące schematy są roz wijane przez rejestrację nowych sytuacji bodźcowych, w których taki schemat może mieć swoje zastosowanie. Ten typ uczenia się schematów można określić jako nabywanie wiedzy przez przyrost informacji. Dobrze opisuje go mechanizm asymilacji nowych informacji do już istniejących struktur poznawczych i zwią zanej z tym akomodacji owych struktur (Piaget, 1971). W rezultacie można zaobserwować powstanie nowych, elastycznych subprocedur dla już istnieją cych schematów. Ponadto schemat może zostać dostrojony. Ten proces polega na stopnio wych zmianach w zakresie poszczególnych subprocedur, tak aby dostosować już istniejący schemat do innej - niż wyzwalająca ten schemat - sytuacji bodźcowej. Zmiany w zakresie dostrajania nie mogą jednak zmienić zasadniczej struktury relacji w ramach schematu. W ten sposób nowo powstały schemat jest analogią schematu wyjściowego. Modyfikacja schematu może również polegać na całkowitej jego restruktu ralizacji. W jej wyniku relacje łączące poszczególne reprezentacje pojęciowe zostają, jako zupełnie nieadekwatne do sytuacji bodźcowej, rozbite, a nowe relacje tworzą się w wyniku procesów abstrahowania i myślenia indukcyjnego. W ten sposób powstaje zupełnie nowy schemat. Wprawdzie wykorzystuje on stare formy pojedynczych reprezentacji pojęciowych, ale ze względu na zupełnie nowe relacje semantyczne, wiążące poszczególne elementy starej struktury, jest zupełnie nową porcją wiedzy. Należy więc stwierdzić, iż powstawanie nowych schematów i modyfikacja schematów już istniejących dokonują się dzięki twórczym procesom transformowania, abstrahowania i myślenia indukcyjnego (Chlewiński, 1999). Istnieje duża liczba przekonujących danych empirycznych potwierdzają cych organizację wiedzy w postaci schematów. Dane te wskazują jednocześnie
3.3. D ynam iczna koncepcja um ysłu
131
na to, w jaki sposób schematy poznawcze wpływają na przebieg procesów przetwarzania informacji, na istotne ogniwa tego procesu, a więc percepcję i pamięć, a przez to na całe zachowanie. Bower, Black i Tuner (1979) przed stawili osobom badanym opis sytuacji, której tematem było „jedzenie obiadu w restauracji”. Większość (73%) uczestników eksperymentu wskazała na takie jej elementy jak: siedzenie przy stole, przeglądanie menu, zamawianie, jedzenie, płacenie i opuszczanie pomieszczenia, uznając je za najważniejsze wśród 20 zdarzeń, jakie mogą wystąpić podczas pobytu w restauracji. Natomiast 48% badanych wyróżniło wśród typowych zachowań w powyższym opisie: wcho dzenie do pomieszczenia, sprawdzanie rezerwacji, zamawianie drinków, dyskutowanie menu, rozmowę przy stole, jedzenie przystawki, jedzenie deseru, zostawianie napiwku. Bower, Black i Tuner w wyniku badań stwierdzili, że można wyróżnić 15 elementów wspólnych, które formują ludzką wiedzę na temat jedzenia obiadu w restauracji i tym samym składają się na schemat postępowania w takiej sytuacji. Rdzeń tego schematu wydaje się jednak znacz nie węższy i dotyczy co najwyżej 6 elementów wymienianych przez większość uczestników eksperymentu. Z kolei Friedman (1979) pokazywała w swoim eksperymencie 6 obrazków, na których przedstawiono: miasto, kuchnię, bawialnię, biuro, przedszkole i farmę. Na każdym obrazku znajdowały się rzeczy przynależne do sytuacji, których osoby badane mogły się spodziewać (np. komputer w biurze) oraz nieprzynależne, nieoczekiwane (np. garnek w biurze). Okazało się, że uczestnicy eksperymentu dwukrotnie dłużej przyglądali się obiektom typowym niż nietypowym. Co więcej, w niezapowiadanym teście odpamiętywania obiektów z obrazków badani nie mieli większych kłopotów z prawidłowym przypomnieniem sobie obiektów nietypowych, natomiast typowe przedmioty były często pomijane. Podobne wyniki otrzymali także Graesser i współpra cownicy (1980). Jednakże Smith i Graesser (1980) ustalili, że lepsza pamięć odnośnie do nietypowych elementów sytuacji zanika wraz z czasem. Im dłuższa przerwa między pierwotną prezentacją bodźców a późniejszym przypomina niem, tym lepsza pamięć dotycząca typowych elementów zapamiętywanej sytuacji (np. komputer w biurze, garnek w kuchni) i tym gorsze pamiętanie obiektów nieoczekiwanych (np. garnek w biurze, komputer w kuchni). Interesujące badania dotyczące efektywności zapamiętywania przeprowa dzili Anderson i Pichert (1978). Polecili oni uczestnikom eksperymentu odpamiętywanie elementów opisu domu z różnych perspektyw (np. z pozycji złodzieja, żebraka, kupca, ubezpieczyciela). Różnica w perspektywie związana była z przyjętym przez badanego schematem poznawczym, służącym mu do analizy sytuacji. Okazało się, że liczba zapamiętanych elementów domu niezależnie od perspektywy - była zbliżona. Ale, co ciekawe, badani zapamiętali różne elementy opisu domu, zgodnie z narzuconą im perspektyw ą. Z perspektywy złodzieja ważne były schody przeciwpożarowe na tyłach domu, zupełnie nieistotne z pozycji żebraka. Anderson i Pichert podsumowali swoje eksperymenty stwierdzając, że narzucony schemat poznawczy wpłyną! na jakość, a nie na ilościowo wymowną wydajność procesów pamięciowych. Teoria schematów - jak wynika z omówionych powyżej badań - przed stawia organizację i funkcjonowanie złożonych sieciowych struktur poznaw czych, których zadaniem jest umożliwienie człowiekowi szybkiej i adekwatnej
132
Rozdział 3. Pojęcia i schem aty
reakcji na zmienne warunki bodźcowe na podstawie wcześniej ukształtowanej wiedzy o świecie. Struktura schematów poznawczych zdaje się przypominać probabilistyczną wersję struktury reprezentacji pojęciowych - schematy posiadają swoje rdzenia, tj. niezmienne w ramach schematu części definicyjne, oraz tory modyfikacji, czyli zmienne, charakterystyczne dla poszczególnych odmian schematu części elastyczne. Nabywanie schematów poznawczych możliwe jest dzięki abstrahowaniu wspólnych elementów sytuacji bodźcowych i zachowań odpowiadających na nie lub dzięki transformacji schematów już istniejących. Mimo większego stopnia złożoności i innych zadań pełnionych w ramach systemu poznawczego, organizacja i funkcjonowanie schematów poznawczych nie odbiegają znacznie w swojej istocie od organizacji i funkcjo nowania reprezentacji pojęciowych. Trzeba przy tym podkreślić, że dzięki schematom nasz system poznawczy może działać zarazem rutynowo i elastycz nie. Ma to szczególne znaczenie w przypadku zadań związanych ze światem społecznym, gdzie wymaga się od nas elastyczności w reagowaniu na powta rzające się sceny lub sytuacje.
3 .3.4. Teoria ram Autorem teorii ram (frames) jest Marvin Minsky (1975). W swoich założeniach teoretycznych koncepcja ram niewiele różni się od teorii schematów. Minsky wyróżnia - podobnie jak Rumelhart oraz Schank - dwa poziomy ram. Poziom wyższy zawiera stałe elementy struktury sieciowej, niezmienne, niezależne od możliwego zakresu stosowalności ramy. Niższy poziom ramy ma natomiast liczne „okienka”, które są zapełniane przez części elastyczne zmienne w zakresie różnych wymiarów (np. czasowych, wielkościowych). W przypadku schematu postępowania z przestępcami niezmiennym elementem ramy wydaje się koniecz ność izolacji w miejscu odosobnienia, natomiast konkretne techniki postępowania z osadzonymi w więzieniu zależą od zmiennych elastycznych części ramy (np. okienko czasowe określa długość czasu poświęconego na resocjalizację). Możli wości nietypowej transformacji w zakresie ramy wykorzystują niektóre techniki twórczego myślenia (np. operator WCK; Nęcka i in., 2005). Dla każdej ramy najbardziej istotne są trzy rodzaje informacji. Przede wszystkim ważne jest to, w jaki sposób należy ramę stosować. Relacje pomiędzy reprezentacjami pojęciowymi muszą wyznaczać konkretne programy zachowań. Rama powinna też mieć określoną sekwencję zdarzeń - scenariusz, z którego jasno wynika kolejność zdarzeń i podejmowanej w jego ramach akcji. Rama musi także zawierać informację, co należy uczynić w sytuacji, gdy oczekiwania odnośnie do sekwencji wydarzeń nie potwierdzają się w rzeczywistości. Tego rodzaju informacje powinny być punktem wyjścia do ewentualnej modyfikacji ramy. Warte podkreślenia jest to, że koncepcja ram bardzo wyraźnie kładzie nacisk na znaczenie tych struktur poznawczych dla regulacji celowych działań człowieka, zwłaszcza w świecie społecznym. O ile schematy poznawcze są strukturami wiedzy, które mogą nam służyć zarówno do lepszego zrozumienia świata w ramach trwałych reprezentacji umysłowych, jak i do generowania na podstawie tej wiedzy spójnego i adekwatnego zachowania, o tyle w przypadku ram znacznie ważniejszy jest aspekt wiedzy proceduralnej, bezpośrednio
3.3. D ynam iczna koncepcja um ysłu
133
związany z zachowaniem generowanym na podstawie ramy. Rama wydaje się także strukturą poznawczą znacznie bardziej zależną od kontekstu sytuacji, a przez to znacznie bardziej zróżnicowaną. Można metaforycznie powiedzieć, że każdy z nas nieustannie nakłada na różnorodną i „kapryśną” rzeczywistość rozmaite ramy, które redukują nadmiar informacji, porządkują obraz świata i regulują nasze celowe działania w świecie.
3.3.5. Teoria planów, scen i tem atów Główne zarzuty wobec koncepcji złożonych struktur sieciowych, niezależnie od ich odmian, dotyczą tego, że schemat ma być w założeniu jednocześnie sztywny i plastyczny, dostosowany do konkretnej sytuacji (Chlewiński, 1999). Prze widywanie przez te teorie pewnego stopnia sztywności schematów wynikało po części z elementarnych założeń dotyczących organizacji strukturalnej systemu poznawczego - jego ograniczonej pojemności, a po części z poczynionego założenia o efektywności funkcjonowania tych struktur - nadmiar niewiele różniących się schematów mógłby bowiem doprowadzić do problemów z ich wyborem i stosowalnością. Zgodnie z teoriami złożonych struktur sieciowych, istotna część rdzeniowa każdego schematu odzwierciedla cechy pewnych stereo typowych zachowań, jakie powinny pojawić się w danej sytuacji bodźcowej. Tymczasem badania dotyczące reprezentacji pojęciowych dostarczyły przeko nujących argumentów na rzecz tezy, że rdzenie trwałych odzwierciedleń rzeczy wistości są albo bardzo wąskie, albo też w przypadku niektórych reprezentacji takich jak np. pojęcia polimorficzne - w ogóle nie istnieją. Oznaczałoby to, iż części stałe wielu schematów czy ram powinny być zawężone do bardzo nielicznych i ogólnych reprezentacji pojęciowych oraz relacji je wiążących, na tyle ogólnych, że w zasadzie nie wiadomo, czy warto je w ramach systemu poznawczego wyodrębniać. Zarzut dotyczący konkretności scheinatów był jeszcze poważniejszy. Skoro złożone struktury sieciowe są nabywane w indywi dualnym doświadczeniu przez abstrahowanie, to nie będąc uczestnikiem konkretnej sytuacji bodźcowej (np. napadu na bank), człowiek nie ma szansy na wytworzenie schematu takiej sytuacji. Jednak znalazłszy się w takiej sytuacji po raz pierwszy, potrafi przecież w jakiś sposób zinterpretować dane i zrozumieć cele oraz czynności innych ludzi uczestniczących w zdarzeniu. Być może schemat jest zarazem sztywny i elastyczny, ale nie wynika stąd, że musi być nabywany na drodze indywidualnego kontaktu z odpowiednią sytuacją. Zrozumienie funkcjonowania takich struktur sieciowych, jak schematy czy ramy możliwe jest, zdaniem Schanka (1982, 1986; Schank, Abelson, 1977), dzięki istnieniu w ramach sieci semantycznej trwałych reprezentacji umysło wych wielu jeszcze bardziej złożonych struktur poznawczych. Plany {plans) są, według niego, schematami zawierającymi wiedzę na temat abstrakcyjnych lub potencjalnych celów działania człowieka. MOP-y (Memory Orgańization Packets) są zbiorami podobnych fragmentów różnych schematów, np. możliwych form powitania, rozpoczynających z reguły interakcje społeczne. W tym sensie MOP-y odnoszą się do pojedynczych rodzajów podobnych do siebie scen (scenes), które mogą wystąpić w ramach wielu schematów, i z których poszczególne scenariusze tych struktur poznawczych mogą być budowane.
134
Rozdział 3. Pojęcia i schem aty
Wreszcie TOP-y (Thematic Organisation Points) są zbiorami ogólnych tematów (thematics) czy też motywów, których złożone scenariusze mogą dotyczyć. Dzięki planom możliwe jest zrozumienie działania innych ludzi, mimo niemożności nabycia konkretnych schematów odpowiadających ich zachowa niom. Dzięki scenom i tematom możliwe wydaje się natomiast generowanie elastycznych form zachowania w odpowiedzi na wymagania sytuacji, szczegól nie złożonej sytuacji społecznej. Scenariusze takich zachowań mogłyby być elastycznie konfigurowane z dostępnych scen w ramach uaktywnionego ogól nego tematu zachowania.
3 .3.6. Porównanie koncepcji struktur sieciowych Porównanie to jest niezwykle trudne, gdyż różnice pomiędzy poszczególnymi koncepcjami w większości sprowadzają się do kwestii nazewnictwa. Jak się jednak wydaje, koncepcje złożonych struktur sieciowych można przedstawić w ramach przestrzeni trzech podstawowych wymiarów. Zauważmy najpierw, iż koncepcje te różnią się pod względem sugerowanej przez nie funkcji złożonych struktur sieciowych. W koncepcji schematów Rumelharta podstawowy akcent położony jest na funkcję reprezentacyjną, z której wynika funkcja generowania zachowania. Wiedza deklaratywna („wiem, że”; Ryle, 1949) staje się w tej koncepcji podstawą wiedzy procedural nej („wiem, jak”; Ryle, 1949; o rodzajach w iedzy-zob. rozdz. 4). W koncepcjach skryptów, ram, scen i tematów Minsky’ego i Schanka bardziej znacząca wydaje się wiedza proceduralna, a różnorodność bądź stereotypowość generowanych zachowań (wiedza „jak”) staje się przesłanką dla formułowania wniosków odnośnie do możliwych struktur reprezentacji świata (wiedza „że”). Ponadto, różne koncepcje struktur sieciowych w różnym stopniu dopusz czają elastyczność złożonych struktur sieciowych. Teoria schematów Rumel harta i teoria ram Minsky’ego są w tym aspekcie zgodne z poglądami koncepcji probabilistycznych. Sztywność rdzeni schematowych jest dla tych koncepcji ekonomiczna strukturalnie i funkcjonalnie. Jak jednak uważa Schank, owa sztywność nie pozwala wyjaśnić różnorodności zachowań człowieka kierują cego się tym samym schematem. Dlatego autor ten sugeruje dynamiczną koncepcję reprezentacji trwałych, w których złożone struktury sieciowe mogą się kształtować w procesie rekonfiguracji różnych dostępnych w sieci ele mentów: pojedynczych reprezentacji, poszczególnych scen i całościowych te matów. W końcu, poszczególne teorie złożonych struktur sieciowych dotyczą innych domen ludzkiego zachowania. Tak więc koncepcja Rumelharta bliższa jest teoriom reprezentacji pojęciowych dotyczących poznawczego reprezento wania obiektów rzeczywistych w naszym umyśle, podczas gdy koncepcje ram Minsky’ego oraz scen i tematów Schanka odwołują się przede wszystkim do zachowań społecznych i ich stereotypizacji. Ulubionym zresztą przykładem funkcjonowania złożonych struktur poznawczych było dla Schanka zachowanie się w restauracji.
3.4. Podsum ow anie
135
3.4. Podsumowanie O pojęciach - ich strukturze, nabywaniu i organizacji - mówi się zazwyczaj w kontekście języka (zob. rozdz. 13). Celem niniejszego rozdziału było ukazanie poznawczej funkcji pojęć, czyli ich roli w poznawaniu otaczającego nas świata, innych ludzi i samych siebie. Z tego punktu widzenia bytem bardziej pierwot nym w stosunku do pojęć są kategorie. Człowiek nieustannie kategoryzuje obiekty fizyczne, a także symboliczne i wyobrażone. Kategoryzuje również obiekty społeczne, w szczególności innych ludzi. Kategoryzując, najpierw two rzy w umyśle poznawczą reprezentację pewnego zbioru obiektów, który w szcze gólnym przypadku może być zbiorem jednostkowym lub pustym, a dopiero wtórnie - i nie zawsze - przypisuje mu określenie językowe. Zazwyczaj ka tegorie często używane i użyteczne w poznaniu potocznym lub naukowym otrzymują własną „etykietę” w postaci słowa. Kategorie rzadziej używane mogą być pozbawione takiej etykiety, co nie jest równoznaczne z ich mniejszą przydatnością w procesach umysłowego odzwierciedlenia rzeczywistości. Wielu z nas posługuje się np. kategorią „rzeczy dawno nieużywane i nie wiadomo, czy potrzebne, ale których żal wyrzucić”. Jest to dość ważna kategoria poznawcza, która jak dotąd nie doczekała się osobnego słowa w języku polskim. Warto pamiętać, że etykieta werbalna nie tylko upraszcza komunikowanie się, bo zamiast kilku czy kilkunastu słów wystarczy jedno, ale również jak gdyby „zamraża” kategorię, ustalając jej zakres znaczeniowy, definiując granice (choć by mato precyzyjne lub rozmyte) oraz kodyfikując społeczny sposób jej używania. Zbiory pozbawione etykiety werbalnej mogą funkcjonować jako tzw. kategorie ad hoc, tworzone doraźnie - np. w procesach twórczych - ale pozbawione trwałości. Dopiero kategoria opatrzona etykietą daje nam prawdziwe pojęcie, czyli formę poznawczej reprezentacji świata, charakteryzu jącą się trwałością. Dlatego właśnie reprezentacje pojęciowe oraz struktury z nich złożone (np. schematy) są przez nas traktowane jako reprezentacje trwałe, w odróżnieniu od z natury nietrwałych obrazów umysłowych lub sądów. Z owych trwałych cegiełek tworzą się w dalszej kolejności rozbudowane struktury wiedzy, o których traktuje kolejny, czwarty rozdział.
R ozdział
Wiedza
Rodzaje wiedzy 138
Nabywanie wiedzy 163
Wiedza deklaratyw na i proceduralna 138
Nabywanie wiedzy semantycznej 163
Wiedza jaw na i niejawna 140
Nabywanie wiedzy proceduralnej 164
Organizacja wiedzy 148 Reprezentacja wiedzy za pomocą cech 148 Organizacja wiedzy semantycznej 151 Organizacja wiedzy proceduralnej: syste my reguł 157 Organizacja wiedzy w modelach ACT, ACT* i ACT-R 159
Nabywanie wiedzy niejawnej 166 Wiedza ekspercka 168 Kryteria i właściwości wiedzy eksperckiej 168 Nabywanie wiedzy eksperckiej 173 Podsumowanie 174
Wiedza to forma trwałej reprezentacji rzeczywistości, mająca postać uporząd kowanej i wzajemnie powiązanej struktury informacji, kodowanej w pamięci długotrwałej. Ekspert to osoba dysponująca wiedzą obszerną, choć ograniczoną do wybranej dziedziny, a ponadto bardzo dobrze uporządkowaną, sprocedufąliżowaną i nadającą się do wykorzystania dzięki ogólnym schematom działania. Spytano kiedyś Kartezjusza, co jest więcej warte - wiedza czy majątek. Gdy Kartezjusz odpowiedział, że wiedza, zadano mu kolejne pytanie: „Jeśli tak, to dlaczego tak często widzi się uczonych pukających do drzwi bogaczy, a nigdy odwrotnie?” Odpowiedź filozofa brzmiała: „Ponieważ uczeni znają dobrze wartość pieniędzy, a bogacze nie znają wartości wiedzy”. W tym rozdziale zajmiemy się tylko jednym z pojęć, które porównywał Kartezjusz - mianowicie wiedzą. I nie o jej wartości będziemy mówić, bo ona dla czytelnika jest niekwestionowana, ale o sposobie jej organizacji w umyśle człowieka. Chodzi 0 odpowiedź na trzy podstawowe pytania: „Jaka jest struktura wiedzy?” „W jaki sposób odnajdujemy informacje w bardzo obszernym magazynie wiedzy?” „W jaki sposób nabywamy wiedzy?” Zasoby wiedzy gromadzone są w pamięci trwałej, dlatego w większości podręczników psychologii poznawczej o jej strukturze i nabywaniu mówi się w rozdziałach poświęconych pamięci. Przyjmując jednak podział na repre zentacje i procesy poznawcze, a ponadto podział reprezentacji na nietrwale 1 trwałe, zdecydowaliśmy się wyróżnić tę specyficzną formę trwałych re prezentacji świata w umyśle. Jej specyficzność polega na tym, że wiedza, jako zapis pamięciowy, jest w szczególny sposób uporządkowana, a ponadto podle ga ewaluacji ze strony jednostki. W języku teorii poziomów przetwarzania (zob. rozdz. 1) można byłoby powiedzieć, że wiedza to informacja przetwo rzona na najgłębszym poziomie, z odniesieniem do systemu przekonań i sądów włącznie. O sposobie uporządkowania wiedzy, czyli relacjach między elementami, decyduje jej treść, podczas gdy organizacja pamięci trwałej rozpatrywana jest zwykle niezależnie od treści, czyli od strony formalnej. W badaniach nad pamięcią jako materiał bodźcowy stosuje się np. zestawy bezsensownych sylab, nie mających znaczenia obrazów lub losowo dobranych liczb. W ten sposób celowo minimalizuje się zarówno możliwość odniesienia tego materiału do wiedzy semantycznej, jak i prawdopodobieństwo użycia skutecznych sposobów zapamiętywania (mnemotechnik). Badaczy pamięci interesuje przede wszystkim formalna strona funkcjonowania pamięci, ujawniająca uniwersalne mechanizmy zapamiętywania, przechowywania i odpamiętywania informacji. Badaczy wiedzy interesuje z kolei sposób łączenia zapisów pamięciowych w większe całości, zależnie od treści wiedzy, kontekstu jej nabywania, wiedzy nabytej wcześniej, a także sądów i przekonań. Ponieważ wyróżnia się wiele rodzajów wiedzy, a co za tym idzie - różne mechanizmy jej nabywania, odpowiedź na powyższe pytania rozpatrzymy z uwzględnieniem tej różnorodności.
138
Rozdział 4. W iedza
4.1. Rodzaje wiedzy 4 .1 .1 . Wiedza deklaratywna i proceduralna Podział wiedzy na deklaratywną i proceduralną pochodzi od filozofa Gilberta Ryle’a (1949). Różnicę między nimi Ryle przedstawił obrazowo w postaci dychotomii: wiedza „że” - wiedza „jak”. Wiedza „że”, najogólniej rzecz ujmu jąc, odnosi się do danych (faktów), kodowanych w pamięci trwałej. Danymi może być wiedza ogólna (np. budowa atomu) albo wiedza epizodyczna (np. kolizja na skrzyżowaniu) czy autobiograficzna (np. że przed chwilą moja córka przyszła się przytulić). Wiedza ta jest łatwa do werbalizacji, ma bowiem wyraźny komponent semantyczny. Natomiast wiedza „jak” odnosi się do kodowanych w pamięci trwałej procedur realizacji czynności o charakterze umysłowym i ru chowym. Jest to specyficzna wiedza, potocznie zwana umiejętnościami. Są to zarówno umiejętności wykonawcze (np. pływanie), jak i poznawcze (np. używanie języka). Zazwyczaj jednak wiedza proceduralna obejmuje oba rodzaje umiejętności, co widać na przykładzie takich czynności, jak gra na skrzypcach czy projektowanie mostów (rysunek techniczny). Wiedza proceduralna jest z reguły trudniejsza do werbalizacji niż wiedza deklaratywna, co wynika z różnic w sposobie ich reprezentowania w pamięci. Podstawą rozróżnienia jest w tym przypadku zarówno strona formalna, jak i treściowa wiedzy. Różny jest także charakter procesu nabywania wiedzy deklaratywnej i proceduralnej. Wiedza deklaratywna nabywana jest dyskretnie, poprzez włączenie jakiejś informacji w istniejące struktury wiedzy. W sprzyjających warunkach wystarczy pojedyn cza ekspozycja informacji, aby została ona zasymilowana. Wiedza proceduralna przeciwnie - nabywana jest w toku treningu, niekiedy długotrwałego, pole gającego na wielokrotnym powtarzaniu czynności. Powyższe rozróżnienie, z pozoru klarowne, generuje dwie podstawowe wątpliwości. Po pierwsze, czy w umyśle istnieją niezależne zbiory danych i pro cedur, czy też istnieje między nimi jakaś zależność? Owa zależność mogłaby polegać na ścisłym przyporządkowaniu danych procedurom, czy nawet dominacji procedur, albo - rzecz jasna - odwrotnie. Po drugie, w jaki sposób wiedza każdego rodzaju jest przechowywana i wydobywana? Nie ma wątpli wości, że nabywanie wiedzy deklaratywnej i proceduralnej odbywa się inaczej, co stanowi definicyjną podstawę ich wyodrębnienia. Nie oznacza to jednak, że różne są też sposoby przechowywania, wewnętrzna struktura czy też mecha nizmy wydobywania wiedzy określonego rodzaju. Niekiedy trudno rozstrzygnąć, czy wiedza wywodzi się wyłącznie z pamięci deklaratywnej, czy też - nieobecna w niej wcześniej - została wywnioskowana z danych zapisanych w pamięci proceduralnej dzięki aplikacji reguł (np. dedukcji). W każdym razie oba problemy wymagają analizy, choć z pozoru wydają się banalne. Weźmy pod uwagę następującą sytuację. Niekiedy dowiadując się o jakimś fakcie, uznajemy go za oczywisty, wręcz zastanawiamy się, jak to się stało, że sami na to nie wpadliśmy. Dowiadujemy się np., że Zosia już nie przyjaźni się z Piotrkiem, lecz z Szymkiem. Wykluczając chwilowo wpływ tzw. złudzenia wglądu wstecznego (hindsight bias; Kahneman, Tversky, 1972), autentyczny brak zaskoczenia powyższymi faktami może wynikać z tego, że już wcześniej dysponowaliśmy niezbędnymi przesłankami dla wyciągnięcia takiego wniosku.
4.1. Rodzaje w iedzy
139
Podobnie jak w rozumowaniu dedukcyjnym, konkluzja wynikająca z przesłanek nie wnosi nowej informacji, jednak aby ją sformułować, potrzebne jest właściwe zaaplikowanie pewnej reguły wnioskowania, czyli swoistej procedury. Wy prowadzony wniosek jest jednak nowy, zawiera bowiem stwierdzenia nieobecne wcześniej w wiedzy deklaratywnej. Jej wzbogacenie staje się więc możliwe dzięki zastosowaniu wiedzy proceduralnej. Dlatego Burnett i Ceci (2005, s. 209) uznają, że „wiedza może być wykreowana przez jednostkę dzięki wnioskowa niu, powiązaniu posiadanych wcześniej informacji i myśleniu o tych informa cjach w nowy sposób”. Przykłady tego typu są bardzo powszechne (zob. Baddeley, 1998). Odpowiedź na pytania: „Czy Arystoteles miał pępek?” albo „Jaki numer telefonu miał Beethoven?”, raczej nie znajduje się explicite w wiedzy deklaratywnej nawet dobrze wykształconego człowieka. Jednak z powodzeniem może być udzielona dzięki wnioskowaniu. Często nie da się behawioralnie stwierdzić, czy konkretny fakt, bez względu na jego prawdziwość lub fałszywość, pochodzi z posiadanej wiedzy deklaratywnej, czy też jest efektem zastosowania pewnej procedury wnioskowania. Jest to utrapieniem niektórych egzaminatorów układających testy sprawdzające wiedzę. Inteligentny student może czegoś nie wiedzieć, ale wywnioskować odpowiedź na podstawie tego, co wie. Jeśli w teście znajduje się zbyt dużo takich pytań, mierzy on w większym stopniu poziom inteligencji niż opanowanie wiedzy. Doniosłe znaczenie wiedzy powstałej w wyniku wnioskowania czy innych procesów poznawczej obróbki wiedzy posiadanej przez jednostkę podkreślają koncepcje metawiedzy (np. Flavell, 1979). Metawiedza, czyli wiedza typu „wiem, że wiem”, byłaby odrębnym rodzajem wiedzy, zasadniczo różnym od dotychczas omówionych. Dotyczy ona wiedzy o wiedzy posiadanej przez jed nostkę. Metawiedza może ujawnić się wprost, kiedy próbujemy uświadomić sobie zakres naszej wiedzy i niewiedzy na jakiś temat, aby np. podczas egzaminu ustnego zdecydować, czy w ogóle próbujemy odpowiedzieć na zadane pytanie. Słynna sentencja Sokratesa: „Wiem, że nic nie wiem”, jest znakomitym przykładem metawiedzy. Metawiedza może także ujawniać się bez uświado mienia jej sobie, kiedy człowiek np. podejmuje pewne zadania, a inne pomija, a jeśli je już podejmuje, to za pomocą preferowanych przez siebie stylów poznawczych, uwzględniających swoje poznawcze i temperamentalne „wypo sażenie” (Orzechowski, Bednarek, 2004; Bednarek, Wytykowska, Orzechowski, 2005). Preferencje te wydają się wynikać z jakiegoś rodzaju metawiedzy. Rozróżnienie wiedzy deklaratywnej i proceduralnej na podstawie me chanizmu ich wydobywania wydaje się intuicyjnie zrozumiałe. Wydobycie wie dzy „że” ma charakter wolicjonalny i polega na jej werbalizacji, bo dzięki językowi została ona zakodowana. Z kolei wiedza „jak” uruchamiana jest auto matycznie w przypadku zainicjowania dobrze nam znanej czynności. Możliwe jednak, że wiedza deklaratywna, pochodząca np. z instrukcji obsługi faksu, zostanie przełożona na wiedzę „jak”, a więc przekształcona w postać procedury. Możliwe jest też, że wiedza proceduralna zostanie przekształcona w formę werbalnego opisu strategii działania, np. pozyskiwania zainteresowania płci przeciwnej1. Odróżnienie znajomości faktów od dysponowania procedurami 1 Jak w filmie „Hitch”, w którym gtówny bohater dysponuje pokaźną listą wyrafinowanych recept tego typu.
140
Rozdział 4. W iedza
może być więc trudne, jeśli za podstawę przyjmiemy sposób wydobycia odpowiednich elementów wiedzy. Trwałość wiedzy jako formy reprezentacji poznawczej wydaje się dość duża, podobnie jak w przypadku pojęć. Nie chodzi o trwałość śladów pa mięciowych, bo ta jest zmienna ze względu na wiele czynników, w tym różnice indywidualne, lecz o niezmienność właściwości samej reprezentacji. Zwolenni cy ujednolicenia poglądów na wiedzę, czyli sprowadzenia jej do jednej formy reprezentacji (np. Neisser, 1967), powołują się na dwa argumenty. Po pierwsze, akcentując proceduralny charakter wiedzy, odwołują się do podstawowego za łożenia podejścia poznawczego, mówiącego o dynamicznym charakterze przy wołań pamięciowych. Skoro w efekcie każdej próby przywołania wiedza ulega modyfikacjom, trudno mówić o trwałości jej reprezentacji. Po drugie, skoro właściwie nie można odróżnić danych bezpośrednio obserwowanych od uzyskanych drogą wnioskowania, prościej jest przyjąć istnienie tylko jednej kategorii jednostek wiedzy. Omówione w rozdz, 3 teorie ram (Minsky, 1970) czy skryptów (Schank, Abelsohn, 1977; Schank, 1982, 1986) przyjmują oba te za łożenia w - jak się wydaje - nieco przerysowanej formie. Teorie wiedzy oparte na tych założeniach nie wymagają oddzielenia wiedzy „że” i wiedzy „jak”, ponieważ w ich ujęciu całą wiedzę można sprowadzić do pewnych procedur operujących na podobnym sposobie reprezentowania rzeczywistości i podobnej strukturze wewnętrznej. Jednak większość modeli teoretycznych uznaje za sadność podziału wiedzy na deklaratywną i proceduralną, albo koncentrując się tylko na jednej z nich, albo próbując połączyć je w ramach jednej teorii (zob. rozdz. 4.2). Podział Ryle?a na wiedzę „że” i wiedzę „jak” niemal wprost został zaadap towany przez Squire’a (1986) do problematyki pamięci. Autor dokonał jednak pewnego uogólnienia: pozostał przy pojęciu pamięci deklaratywnej w orygi nalnym znaczeniu, natomiast wiedzę proceduralną umieścił w szerszej kategorii pamięci niedeklaratywnej. Ta ostatnia zawiera nie tylko procedury, ale również wszelkie inne formy pamięci, które nie mają postaci deklaratywnej, np. zmiany prawdopodobieństwa reakcji uzyskane w efekcie warunkowania czy habituacji stymulacji.
4 .1 .2 . Wiedza jawna i niejawna Pojęcie wiedzy niejawnej funkcjonuje od dawna, choć pod różnymi etykietami terminologicznymi. Jako pierwszy, w opozycji do wiedzy jawnej, użył tego pojęcia filozof Michael Polanyi (1966). Wiedzę ukrytą lub „milczącą” (tacit knowledge) rozumiał jako taką, o której nie wiemy, że ją posiadamy. Polanyi akcentował więc przede wszystkim trudności w werbalizacji wiedzy tego rodzaju, typowe dla osób dysponujących bogatym osobistym doświadczeniem w jakiejś dziedzinie. Ponownego „odkrycia” wiedzy niejawnej, tym razem na gruncie psychologii, dokonali Graf i Schacter (1985), wyróżniając pamięć jawną (explicit) i pamięć niejawną (implicit), zwaną również ukrytą lub utajoną. Dlatego też obecnie funkcjonują dwa pojęcia o zbliżonym znaczeniu: wiedza ukryta (tacit) i wiedza niejawna (implicit). Pierwsze pojęcie używane jest ra czej w odniesieniu do wiedzy nabywanej długotrwale na drodze praktyki
4.1. Rodzaje w iedzy
141
i doświadczenia, a drugie - jako efekt mimowolnego uczenia się (implicit learning). Różnice dotyczą więc raczej kontekstu i tradycji badań w pewnym paradygmacie, a nie istoty rzeczy. Ze względu na swój charakter i sposób funk cjonowania, wiedza niejawna wydaje się tworzyć jedną kategorię, wymagającą jednego tylko terminu. Podział Schactera i Grafa wywodzi się z rozróżnienia dwóch grup metod badania pamięci: bezpośrednich i pośrednich. W pierwszym przypadku osoba badana ma przywołać z pamięci to, co wie (metoda przypominania), lub roz poznać w przedstawionym jej materiale elementy występujące w uprzednio wyuczonym materiale (metoda rozpoznawania). W przypadku drugim nie jest w ogóle pytana o to, co wie; ma jedynie wykonać pewną czynność, której nie da się wykonać poprawnie lub na założonym poziomie sprawności bez wcześniej nabytej wiedzy. Badanemu pokazuje się np. elementy spełniające nieznane mu kryteria definicyjne, nie ujawniając samej definicji, a następnie prosi się go 0 klasyfikowanie, czyli samodzielne wskazywanie elementów spełniających de finicję lub jej niespelniających (zob. paradygmat 4.1). Przyjęto, że wiedza nie jawna nie ujawnia się w pomiarze bezpośrednim, podczas gdy można wychwycić jej obecność w pomiarze pośrednim (Cleeremans, 1997a; Higham, 1997). Przy kładowo, osoba badana dość poprawnie klasyfikuje złożony materiał, którego się wcześniej uczyła, ale nie potrafi poprawnie zwerbalizować reguł rządzących jego uporządkowaniem. Sformułowano precyzyjne kryteria, jakie powinny spełniać wyniki tych testów, aby wiarygodnie potwierdzić obecność wiedzy niejawnej (Shanks, St. John, 1994; Merikle, Joordens, 1997). Pierwsze z nich, tzw. kryterium wy łączności, nakazuje, aby dana metoda umożliwiała dotarcie tylko do tej wiedzy, która jest wykorzystywana w wykonaniu danego zadania. Chodzi o to, aby narzędzie było odporne na wpływ innej, niezwiązanej z zadaniem wiedzy. Na przykład, kiedy po ekspozycji listy slow pochodzących z pewnej kategorii, prosimy osoby badane o jej odtworzenie, to łatwiej będą przywoływane pojęcia typowe dla tej kategorii, nawet jeśli nie były obecne na pierwotnej liście (zob. rozdz. 9.4.2, paradygmat 9.1). Na wykonanie zadania ma więc pewien wpływ wiedza, która jest niezwiązana z zawartością listy i kolejnością umieszczonych na niej pojęć. Z kolei kryterium czułości nakazuje, aby test mierzący zakres wiedzy jawnej był na tyle wyczerpujący, aby ujawnić pełną informację, której badani są świadomi. W szczególności chodzi o to, aby w wyniku dotarcia tylko do części wiedzy jawnej nie uznać tej, do której nie dotarto, za wiedzę niejawną. Paradygmat 4.1
1 Uczenie się sztucznej gramatyki (Artificial Grammar Learning, AGL) Ten schemat badania procesów mimowolnego uczenia się pochodzi od Arthura Rebera (1967, 1968). Typowe zadanie składa się z dwóch faz. W pierwszej fazie 1 osoby badane uczą się egzemplarzy ciągów literowych, zgodnych z systemem f reguł „sztucznej gramatyki” (zob. ryc. 4.1). Reguły gramatyki określają, jakie ciągi j będą poprawne (gramatyczne), a jakie błędne (niegramatyczne). Osób badanych nie informuje się jednak, że ciągi prezentowanych im liter zostały utworzone według i jakichś zasad. Dowiadują się o tym po zakończeniu fazy uczenia się. Pierwsza faza
142
Rozdział 4. W iedza
składa się zazwyczaj z prezentacji od kiiku do kilkunastu ciągów liter. W fazie drugiej badanych prosi się o klasyfikowanie prezentowanych im ciągów jako gramatycznych bądź niegramatycznych. Pokazuje się zarówno ciągi znane z fazy uczenia się, jak i zupełnie nowe. Ponadto manipuluje się zgodnością ciągów z regułami gramatyki (część jest gramatyczna, a część nie).
P
A
x Ryc. 4.1. Sztuczna gramatyka zastosowana przez Rebera (1967) w badaniach nad efektem uczenia mimowolnego. Strzałki ilustrują dozwolone przejścia między poszczególnymi stanami. Pętle oznaczają możliwość kilkakrotnego powtórzenia danego stanu. Przykładowe ciągi zgodne z gramatyką: TPPTXXVS, VXVPXXVS, TPTS. Ciągi niezgodne z gramatyką: TPPTXXPS, VPVPXXVS, TXTS.
Już w pierwszych badaniach Reber (1967) wykazał, że badani wykonują zadanie klasyfikacyjne z poprawnością istotnie wyższą niż poziom przypadku (zazwyczaj w przedziale pomiędzy 60 a 70%; por. Balas, Żyła, 2002). Nie potrafią jednak zwerbalizować reguł, którymi się kierują, podejmując decyzję o tym, czy ciąg jest gramatyczny, czy też niegramatyczny. Późniejsze badania z użyciem tego pa radygmatu wielokrotnie replikowały powyższe wyniki, również po zmianie rodzaju i poziomu złożoności sztucznych gramatyk (Brooks, 1978; Dulaney, Carlson, Dewey, 1984; Pothos, Bailey, 2000). W badaniach z wykorzystaniem paradygmatu uczenia się sztucznych gra matyk stosuje się również bezpośrednie miary jawnego uczenia się (Mathews i in., 1989). W takim przypadku osoby badane proszone są o odpamiętanie prezento wanych im w fazie uczenia się ciągów lub o klasyfikowanie prezentowanych im ciągów na znane/nieznane. Okazuje się, że badani są w stanie poprawnie odpamiętać część ciągów (choć bardzo małą), co wskazuje na słaby wpływ wiedzy jawnej na pomiar efektów uczenia się mimowolnego.
Okazało się jednak, że trudno utrzymać założenie o pełnym rozdzieleniu wpływów wiedzy jawnej w testach bezpośrednich i wiedzy niejawnej w miarach pośrednich. W testach przypominania albo rozpoznawania niewątpliwie do minuje wiedza jawna, ale nie można wykluczyć wpływów wiedzy niejawnej. I odwrotnie, w testach pośrednich ujawniać się może wiedza jawna, również jeśli jest nieadekwatna do zawartości pamięci niejawnej. Na przykład w zadaniu
4.1. Rodzaje w iedzy
143
wymagającym klasyfikowania osoba badana może wyabstrahować błędną regułę i stosować się do niej, co będzie interferować z wpływami ze strony wiedzy niejawnej. Tak więc prawdopodobnie na poziom wykonania testów bezpo średnich i pośrednich wpływa jednocześnie wiedza jawna i niejawna. Rycina 4.2 ilustruje wzajemne wpływy obu rodzajów wiedzy w zadaniu polegającym na uczeniu się sztucznych gramatyk. ETAP 1
uczenie się jawne intencjonalne uczenie się egzemplarzy
ETAP II
--------- ►
ETAP III
test wiedzy jawnej nabytej intencjonalnie
te st w iedzy ukrytej znajomość regui
w p tyw w iedzy ukrytej (regui)
wpływ wiedzy jawnej fragmenty, egzemplarze
uczenie się m im o w o ln e ^ ^ nieintencjonatne uczenie się regu! \
Ryc. 4.2. Analiza wpływu procesów jawnych i niejawnych w zadaniu uczenia się sztucznych gramatyk (za: Wierzchoń, 2004). Etap I - uczenie się ciągów liter zgodnych z pewną regułą gramatyczną. Etap II - testowanie wiedzy niejawnej (ukrytej) w teście klasyfikacji ciągów, wymagającym różnicowania ciągów gramatycznych i niegramatycznych. Etap III - test wiedzy jawnej, badający znajomość reguł klasyfikacji. Przedruk za zgodą autora.
Według Cleeremansa (1997a) wiedza jest niejawna, kiedy wpływa na przetwarzanie informacji bez uświadomienia jej właściwości. Mimo braku uświadomienia, wiedza niejawna ma swoją reprezentację w pamięci trwałej, przez co może być z niej wydobywana i wykorzystywana. Oznacza to, że niekiedy możemy wykonywać pewne zadania, choć nie mamy jawnego dostępu do wiedzy, która nam to umożliwia. W skrajnym wypadku nie wiemy nawet, że danego typu wiedza jest w ogóle potrzebna do wykonania jakiegoś zadania. Przykładowo, większość ludzi znakomicie wykrywa oszustów, łamiących tzw. regułę kontraktu społecznego, głoszącą, że odnoszenie korzyści z życia w grupie zawsze wymaga poniesienia pewnych kosztów (Cosmides, 1989; zob. rozdz. 10.6.3, ramka 10.1). Jednak użytkownicy tej reguły rzadko zdają sobie sprawę z tego, że stosują wówczas wyrafinowane metody wnioskowania dedukcyjnego. Przykładem działania wiedzy niejawnej jest też kompetencja językowa. Mówiąc i pisząc, używamy skomplikowanych reguł syntaktyczych, o których w większoś ci nie mamy pojęcia. Potrafimy też odróżnić poprawne wyrażenia językowe od niepoprawnych, choć podstawa rozróżnienia nie jest nam znana. Nieco inne rozumienie wiedzy ukrytej - dosłownie „milczącej” - prezentują Wagner i Sternberg (1985; Sternberg, Wagner, Okagaki, 1993; Sternberg i in.,
144
Rozdział 4. W iedza
2000; Wagner, 1987, 2000). Autorzy, rozwijając koncepcję wiedzy ukrytej, traktują ją jako składnik inteligencji praktycznej. Wiedza ukryta to taka, która nie jest bezpośrednio wyrażana, a jej nabywanie odbywa się dzięki indywi dualnemu doświadczeniu jednostki. Wiedza ukryta charakteryzuje się trzema właściwościami: jest nabywana samodzielnie, ma charakter proceduralny i jest stosowana w praktyce (Sternberg i in., 2000). To rozumienie wiedzy ukrytej zostało skontrastowane z wiedzą jawną, nabywaną bezpośrednio, najczęściej w trakcie nauki szkolnej, uniwersyteckiej lub kursów zawodowych. Wiedza ukryta związana jest ze zdolnościami praktycznymi do uczenia się na podstawie doświadczenia i stosowania uprzednio nabytej wiedzy w dążeniu do osiągnięcia celów osobistych. Jako że wiedza proceduralna ma postać złożonych, koniunkcyjnie zdefiniowanych warunków aplikacji reguł dążenia do tychże celów, autorzy przyjmują, znaną z innych koncepcji, formę reprezentacji wiedzy ukrytej w postaci reguł typu: „warunek-działanie” (jeśli spełniony jest waru nek A, podejmij działania X). Nie są to jednak reguły abstrakcyjne. Wiedza ukryta, i to jest unikalne w koncepcji Sternberga i współpracowników, jest konkretna i specyficzna dla kontekstu (context-specific). Dotyczy skutecznych sposobów działania w specyficznej sytuacji albo w dość wąskiej klasie sytuacji. Kontekstem dla wiedzy ukrytej może być doświadczenie życiowe jednostki, ale również środowisko pracy, co szczególnie interesowało tych badaczy. Wiedza ukryta, szczególnie jeśli jest rozległa i głęboka, jest również plastyczna, dzięki wielości zawartych w niej procedur ściśle dopasowanych do różnych sytuacji. Rozległa wiedza ukryta pozwala również na kombinowanie znanych procedur, co umożliwia bardziej elastyczną adaptację do nowych sytuacji. Podstawą odróżnienia wiedzy jawnej od niejawnej jest zazwyczaj niepełne uświadomienie zawartości tej drugiej. Wiedza jawna jest dostępna i świadoma, podczas gdy niejawna pozostaje niedostępna świadomości, chociaż ma wpływ na różne procesy przetwarzania informacji. W literaturze brak jednak zgody co do definicji i typologii świadomości, a także co do tego, jak bardzo wiedza niejawna jest niedostępna świadomości. Wydaje się, że w niektórych przy padkach wiedza niejawna może być łatwo uświadamialna, np. wtedy, gdy ktoś zapytany o sposoby radzenia sobie z korkami w ruchu ulicznym formułuje konkretne zalecenia. Zadane pytanie stymuluje procesy werbalizacji, a przez to prowadzi do uświadomienia sobie wiedzy, która do tej pory była latentna. W innych przypadkach, np. w odniesieniu do kompetencji językowych, nawet zadane wprost pytanie o wykorzystaną regułę niewiele daje. Wszyscy wiemy, że w języku polskim mówi się „jedno piwo”, „dwa piwa”, ale „pięć piw”. Czy to znaczy, że potrafimy sformułować regułę rządzącą tworzeniem liczby mnogiej pewnej klasy rzeczowników? Większość z nas tego nie potrafi, przez co wiedzę na ten temat trzeba uznać za trudno dostępną świadomości. W związku z tymi problemami, niekiedy zamiast terminu „świadomość” używa się terminów „dostępność” czy - całkiem już operacyjnie - „możliwość werbalizacji”. Poza tym wiedza jawna nie zawsze jest w pełni dostępna świadomości, czego do wodem są trudności w aktualizacji wiedzy podczas egzaminu. Wydaje się więc, że kryterium świadomości lub jej braku nie jest najlepszą podstawą definio wania wiedzy niejawnej. Inny problem to relacje między podziałem na wiedzę jawną i niejawną a wcześniej omówionym podziałem na wiedzę deklaratywną i proceduralną (nie-
4.1. Rodzaje wiedzy
145
deklaratywną). Niektórzy badacze przyjmują, że wiedza jawna jest tym samym co deklaratywna, a wiedza niejawna - tym samym co niedeklaratywna (np. Squire, 1986). Berry i Dienes (1993) dowodzą jednak, że wiedza niejawna jest „mieszan ką” wiedzy deklaratywnej i proceduralnej, a jej cechą wyróżniającą jest spe cyficzny transfer, którego dokonujemy - również w sposób niejawny - na nowe sytuacje. Transfer ten dotyczy abstrakcyjnych reguł czy abstrakcyjnej struktury zadania (wiedza deklaratywna), ale wymaga zastosowania jakiejś formy wnioskowania (wiedza proceduralna). Jeśli nawet tak jest, transfer ten odbywa się tylko w ramach zadań izomorficznych, czyli identycznych pod względem struktury formalnej, ale wyrażonych w różnej postaci. Davies (1989) twierdzi wręcz, że wiedza niejawna może być w pewnym sensie izolowana, tj. nie wchodzi w związki z wiedzą już posiadaną albo nabywaną później. Dzieje się tak głównie dlatego, że nie można jej użyć w procesie wnioskowania, czyli wyprowadzania nowej wiedzy z uprzednio nabytej. Zakres użycia wiedzy niejawnej jest więc ograniczony do konkretnej sytuacji i nie ma mowy o transferze takim, jak np. w rozumowaniu przez analogię, który wymaga całkiem jawnej refleksji. Z kolei Grigorenko i Strenberg (2001) uważają, że w przeciwieństwie do specjalistycznej wiedzy zawodowej, która zawiera wiedzę deklaratywną i proceduralną, wiedza ukryta ma charakter wyłącznie proceduralny. Zdaniem Rebera (1989), podstawowym sposobem nabywania wiedzy nie jawnej jest mimowolne uczenie się, czyli takie, które nie stanowi odpowiedzi na polecenie ani nie wynika z samodzielnie powziętej intencji (paradygmaty 4.1 i 4.2). Pozwala ono na nabywanie wiedzy niejawnej, która jest abstrakcyjna i reprezentatywna dla struktury stymulacji w otoczeniu. Uczenie się mimo wolne pozwala więc na budowanie, dzięki procesowi indukcji, głębokiej re prezentacji wiedzy, uwzględniającej abstrakcyjne relacje między elementami środowiska. Proces ten odbywa się bez udziału świadomych strategii uczenia się i bez zamiaru nabycia wiedzy, a ponadto jest bezwysiłkowy. Przyswojona w ten sposób wiedza niejawna może być użyta, również bez zdawania sobie z tego sprawy, w procesie rozwiązywania problemów i podejmowaniu decyzji w sytuacjach mniej lub bardziej podobnych do sytuacji, w której nastąpiło uczenie się. Chodzi oczywiście o przypadki, gdy reprezentacja nowej sytuacji „pasuje” strukturalnie do nabytej wcześniej wiedzy. Podkreślając rolę mimo wolnego uczenia się w nabywaniu wiedzy niejawnej, Reber nie zgadza się ze stanowiskiem natywistycznym (np. Chomsky, 1980; Fodor, 1975, 1983; Gleitman, Wanner, 1982), wedle którego wiedza niejawna jest wrodzona. Natywiści skłonni byli przyjmować, że skoro nie da się przekonująco wyjaśnić, w jaki sposób nabywana jest wiedza złożona i abstrakcyjna, a zarazem niejawna, to trzeba przyjąć, że w jakiś sposób była już wcześniej obecna w umyśle. | Paradygmat 4.2
Sposoby badania mimowolnego uczenia się Uczenie się sztucznej gramatyki to najpopularniejszy paradygmat badań nad mi mowolnym uczeniem się i nabywaniem wiedzy niejawnej. Oprócz tego wypraco wano dwa inne paradygmaty. Pierwszy wymaga wyuczenia się sekwencji zdarzeń, I a drugi - kontroli systemów dynamicznych.
146
Rozdział 4. W iedza
Uczenie się sekwencji (sequence learning; Nissen, Bullemer, 1987) polega na reagowaniu na serię bodźców, które pojawiają się na ekranie zgodnie z ukrytą sekwencją, określającą reguły następstwa bodźców w serii. Na przykład ekran monitora dzieli się na cztery części, a następnie w jednym z czterech pól pokazuje się dowolną figurę. Po chwili figura znika, aby za chwilę pojawić się w innym okienku. Osoba badana ma jak najszybciej dotknąć pola, na którym właśnie pojawiła się figura. Przeciętne badanie wymaga wykonania od 1000 do 2000 reakcji. Wyniki eksperymentów przeprowadzonych z wykorzystaniem tej procedury wskazują na systematyczne skracanie czasu reakcji w kolejnych próbach. Nie można tego wyjaśnić jedynie nabywaniem wprawy motorycznej, ponieważ gdy ukryta reguła określająca sekwencję pojawiarga się ciągów zostaje nieoczekiwanie zmieniona, czasy reakcji istotnie się wydłużają. Ponadto wykonanie tego zadania wydaje się niezależne od poziomu werbalizacji wiedzy o ukrytej regule. Willingham, Nissen i Bullemer (1989) podzielili osoby wykonujące zadanie uczenia się sekwencji na dwie grupy. Pierwsza grupa była w stanie opisać nie więcej niż trzy kolejne elementy sekwencji, a druga potrafiła zwerbalizować wszystkie zasady, według których skonstruowano sekwencję zdarzeń. Okazało się, że obydwie grupy nie różniły się szybkością i poprawnością reagowania na bodźce zgodne z regułą, co wydaje się wskazywać na możliwość wykonywania zadania niezależnie od stopnia uświadomienia wiedzy o regule. Kontrola systemów dynamicznych (dynamie system task] Berry, Broadbent, 1984) polega na osiągnięciu i utrzymaniu określonego stanu złożonego systemu poprzez manipulację zmiennymi. Systemem może być np. cukrownia lub inny zakład produkcyjny, którego funkcjonowanie symuluje program komputerowy. Osoba badana ma zarządzać cukrownią, używając dostępnych jej narzędzi, takich jak poziom zatrudnienia i płac, planowanie produkcji itd. Przypomina to nieco symulacyjną grę komputerową. System „zachowuje się” według niezmiennego algorytmu, który jednak nie jest znany osobom badanym. Otrzymują one natomiast informację zwrotną na temat aktualnego stanu systemu. Nawet jeśli chwilowo nic nie robią, system - podobnie jak w rzeczywistości - podlega dynamicznym zmia nom. Dzięki korzystaniu z informacji zwrotnej, osoby badane uczą się bardziej efektywnej kontroli systemu, systematycznie poprawiając poziom wykonania zadania. Nie są jednak w stanie zwerbalizować reguł działania systemu. Co więcej, podobnie jak w zadaniu wymagającym uczenia się sekwencji, wykonanie zadania nie koreluje z dostępnością jawnej wiedzy na temat reguł rządzących systemem. Stanley i współpracownicy (1989) zaproponowali pomysłowy sposób oszacowania charakteru wiedzy nabywanej w tego typu zadaniach. Po wykona niu zadania osoby badane poproszone zostały o wyjaśnienie komuś innemu, w jaki sposób należy kontrolować system, aby osiągnąć satysfakcjonujące rezulta ty. Badacze stwierdzili istotną różnicę w czasie, jaki jest potrzeby do nabycia wiedzy niejawnej pozwalającej efektywnie kontrolować system, a czasem nie zbędnym do uzyskania wiedzy jawnej, podlegającej werbalizacji. Efektywne wy konanie zadania znacznie wyprzedza możliwość skutecznego instruowania innych. Jednak wskazówki utworzone na podstawie prób takiego instruowania pozwoliły osobom poinstruowanym szybciej osiągnąć optymalny poziom wy konania zadania.
4.1. Rodzaje w iedzy
147
W przeciwieństwie do Rebera (1989), inni autorzy uważają, że wiedza niejawna nie ma charakteru abstrakcyjnego, lecz zawiera konkretne egzempla rze lub przypadki (Brooks, Vokey, 1991; Vokey, Brooks, 1992) albo konkretne fragmenty informacji (Perruchet, Pacteau, 1990), zapamiętane w trakcie mimo wolnego uczenia się. Użycie tej wiedzy w nowym kontekście odbywa się dzięki stwierdzeniu podobieństwa obu sytuacji. Proces ten wymaga również abstrakcji, ale nie w momencie kodowania informacji, tylko jej wydobywania. Interesujące wydaje się także stanowisko pośrednie, dopuszczające współistnienie różnych mechanizmów nabywania wiedzy niejawnej (Berry, Dienes, 1993; Meulemans, Van der Lindern, 1997). Okazało się, że modele obliczeniowe mimowolnego uczenia się, zawierające elementy koncepcji abstrakcyjnych i egzemplarzowych, wykazują najlepsze dopasowanie do danych empirycznych (por. Cleeremans, 1993). Problem ten jest jednak nadal przedmiotem ożywionej debaty. W wątpliwość poddaje się również brak możliwości świadomego dostępu do wiedzy niejawnej (Perruchet, Pacteau, 1990; Shanks, St. Jones, 1994; przegląd w: Berry, 1996/2004). Początkowo taki pogląd głosił sam Reber, szybko się jednak z niego wycofał. Okazało się bowiem, że człowiek jest w stanie częściowo werbalizować wiedzę niejawną. Zwolennicy egzemplarzowej reprezentacji wie dzy niejawnej twierdzą, że w zasadzie mimowolne uczenie się jest w pełni świadome. Polega bowiem na przyswajaniu konkretnych egzemplarzy czyli frag mentów wiedzy, które mogą być zwerbalizowane, a zatem cały proces uczenia się musi być uznany za świadomy (Berry, Dienes, 1993). Wydaje się, że przyjęcie tego poglądu oznaczałoby konieczność wyeliminowania podziału wiedzy na jawną i niejawną. Autorzy o bardziej umiarkowanych poglądach przyjmują, że są przekonywające dowody na to, iż wiedza niejawna jest potencjalnie dostępna jawnemu wydobywaniu, choć nie zawsze do tego dochodzi (por. Underwood, Bright, 1996). Możliwość jawnego wydobycia wiedzy niejawnej występuje bo wiem tylko wtedy, gdy poziom tej wiedzy jest dość wysold. Innymi słowy, już niezbyt obszerna wiedza niejawna, nabyta np. w ciągu krótkiego eksperymentu laboratoryjnego, poprawia poziom wykonania zadań poznawczych, ale żeby doszło do uświadomienia tej wiedzy, potrzebny byłby długotrwały trening. W badaniach nad mimowolnym uczeniem się uczestnicy nabywają wiedzy, która pozwala na wykonanie zadań w niewielkim tylko stopniu przekraczają cych poziom przypadku. Wiedza niejawna nie jest w takim razie w pełni adekwatną i kompletną reprezentacją struktury otoczenia. Jeśli więc dzięki werbalizacji wiedza niejawna przekształca się w wiedzę jawną, musi być co najmniej tak samo niekompletna i nieadekwatna. Wyjątek stanowi wiedza nabywana w trakcie długotrwałego uczenia się mimowolnego (np. Mathews i in., 1989), jak w przypadku języka ojczystego. Jednak i wtedy możliwość jej werbalizacji - jeśli uczenie się nie zostało poparte jawnym nabywaniem reguł języka - jest ograniczona. Dlatego też niektórzy badacze nie opowiadają się za którąkolwiek ze stron sporu o (nie)świadomy charakter wiedzy niejawnej, twierdząc jedynie, że świadomość nie jest niezbędna do jej nabywania i wyko rzystania (Sternberg i in., 2000). Pojawiły się nawet dowody, że próba przejęcia świadomej kontroli nad wiedzą niejawną prowadzi do pogorszenia poziomu wykonania zadań, które jej wymagają (Reber, 1976; Reber i in., 1980). Co więcej, transfer pomiędzy wiedzą niejawną i jawną może również odbywać się w przeciwnym kierunku. Mianowicie pewne elementy wiedzy jawnej, szczegół-
148
Rozdział 4. W iedza
nie epizodycznej, np. traumatyczne wydarzenia życiowe, mogą ulec „ukryciu”. Chodzi o zjawisko utraty dostępu do wyselekcjonowanych zapisów pamięcio wych. Świadomość dostępu jest zatem tylko przybliżoną i raczej typową niż generalną właściwością różnicującą wiedzę jawną od wiedzy niejawnej. Trzeba też zdawać sobie sprawę z tego, że świadomość lub jej brak może dotyczyć różnych aspektów mimowolnego uczenia się. Możemy być nieświado mi ani tego, że w ogóle czegoś się uczymy, ani tego, czego się nauczyliśmy. Tak przypuszczalnie przebiega, proces nabywania pierwszego języka. Możemy być świadomi faktu, że się uczymy, ale nieświadomi skutków i efektów uczenia się. W szczególności nie potrafimy zwerbalizować reguł rządzących opanowywanym przez nas materiałem. Tak przebiega proces uczenia się sprawności motorycznych, np. jazdy na nartach lub na rowerze. Możemy być również świa domi i tego, że się uczymy, i tego, czego się nauczyliśmy - ale dopiero w wyniku procesu wtórnego, który polega na transformacji wiedzy niejawnej w jawną. Natomiast wiedza od początku jawna jest nabywana w procesie intencjonal nego, zamierzonego uczenia się z zachowaniem od samego początku świa domości skutków uczenia się, a zwłaszcza znajomości abstrakcyjnych reguł. Ale nawet w takim wypadku nie jesteśmy świadomi poznawczego mechanizmu nabywania wprawy lub poszerzania zakresu wiedzy. Ten mechanizm jest zawsze ukryty, a jego odkrywanie jest zadaniem psychologów, a nie podmiotu uczącego się. Zgodnie z proponowaną przez nas definicją, wiedza niejawna to taka, która nie jest całkowicie dostępna świadomości, choć może być dostępna w niektórych fragmentach, a ponadto może być wtórnie uświadomiona w wyniku określonych zabiegów (np. werbalizacji). Tak rozumiana wiedza niejawna zazwyczaj jest wynikiem procesu mimowolnego uczenia się, choć w niektórych przypadkach tworzy się w wyniku uczenia się intencjonalnego i zamierzonego.
4.2. Organizacja wiedzy Problem organizacji wiedzy nierozerwalnie wiąże się z organizacją pamięci. Z tego względu w późniejszych rozdziałach będziemy nawiązywać do niektórych koncepcji organizacji wiedzy opisanych poniżej. Omówione teorie dotyczą różnych rodzajów wiedzy albo różnych jej aspektów. Pierwsza grupa teorii reprezentacji wiedzy za pomocą cech - dotyczy składników wiedzy semantycz nej, a więc najmniejszych jej jednostek, najczęściej pojęć. Kolejna grupa dotyczy relacji semantycznych między elementami, które wyrażają się głównie w postaci sądów. Trzecia grupa teorii dotyczy wiedzy proceduralnej. Ostatnia jest próbą pogodzenia wszystkich trzech ujęć, łączy bowiem wiedzę deklaratywną (ściślej: semantyczną) i proceduralną w jednym modelu. 4 .2 .1 . Reprezentacja w iedzy za pomocą cech Podstawowym pojęciem omawianej poniżej grupy teorii reprezentacji wiedzy jest pojęcie qechy (feature), Cecha jest symbolicznym i dyskretnym (tj. nie ciągłym, nieanalogoWym) elementem umysłowej reprezentacji wiedzy o wy raźnie określonych granicach. Rzeczywistość jest reprezentowana w postaci
4.2. Organizacja w iedzy
149
zestawu cech oraz relacji, które między nimi zachodzą. Zarówno cechy, jak i relacje muszą działać jednocześnie, aby powstało znaczenie. Przykładowo znaczenie, jakie przypisujemy ulicznej sygnalizacji świetlnej, wynika z integracji cech: kształtu sygnalizatora i koloru światła oraz - prawdopodobnie - pewnych cech kontekstu. Właściwe znaczenie informacji pojawia się dopiero, kiedy te cechy są w odpowiedniej relacji względem siebie. Inne relacje między cechami bądź brak którejkolwiek z cech nie tworzą żadnego znaczenia albo tworzą zupełnie inne. Na przykład nie zatrzymujemy się, kiedy w książce zobaczymy zdjęcie sygnalizatora z zapalonym światłem czerwonym. W koncepcji Evy Clark (1979), ograniczonej do pojęć języka, na znaczenie składa się zestaw cech definiujących słowo. Na przykład pojęcie „człowiek” mogłoby składać się z reprezentacji cech [+zwierzę, +dwunożny, +inteligentny], gdzie „ + ” oznacza występowanie pewnej cechy. Gdyby dodać jeszcze właściwość [-włosy], gdzie oznacza brak cechy, wówczas powstaje repre zentacja pojęcia „łysy”. Cechy w tym modelu są niezależne - obecność jednej nie wymaga obecności innej. Niezależność cech nie wyklucza jednak korelacji między nimi. Dlatego pewne obiekty będą uznawane za bardziej typowe (częs tsze współwystępowanie cech dystynktywnych), a inne za raczej nietypowe. Clark (1979) założyła, że definiowanie znaczenia stów wymaga uformowa nia zbioru cech unikalnych dla konkretnego pojęcia. Autorka zaproponowała tzw. mechanizm nawarstwiania się cech, który tłumaczyłby to zjawisko. Na warstwianie się cech polega na uzupełnianiu cech pierwotnych (primitive) cechami dodatkowymi - bardziej szczegółowymi. Te ostatnie byłyby nadbudo wywane (stąd pojęcie nawarstwiania) na cechach pierwotnych - bardziej podstawowych w danej klasie obiektów. Clark zaproponowała hipotezę cechy semantycznej (semantic feature), wyjaśniającą mechanizm nawarstwiania się cech. Cechy te pochodzą z zestawu cech pierwotnych i są łączone w znaczenia w taki sposób, aby było ono zgodne z przyjętym użyciem słowa oraz aby dwa różne słowa nie miały identycznego znaczenia. W pierwszym przypadku chodzi o utworzenie reprezentacji werbalnej zgodnej z definicją słowa, a w drugim o rozróżnialność znaczeń słów, jeśli odpowiadają innym obiektom (tzw. zasada kontrastu według Clark). Przykładowo, jeśli pojęcie „człowiek” zdefiniowane byłoby jako [+ zwierzę, +dwie nogi], zasada kontrastu blokuje możliwość umieszczenia w strukturze wiedzy np. szympansa czy strusia pod tą samą nazwą. Aby tego uniknąć, najczęściej znaczenia słów wymagają uzupełnienia o dodatkowe cechy. Inni badacze skoncentrowali się z kolei na wyjaśnieniu przebiegu procesu porównywania znaczeń słów. Smith i współpracownicy (1974) wyróżnili dwa rodzaje cech w reprezentacji znaczenia: rdzenne (core) i charakterystyczne. Cechy rdzenne to takie, które składają się na „tożsamość” obiektu; można powiedzieć, że są to cechy definicyjne. Natomiast cechy charakterystyczne są zaledwie typowe dla obiektu. Autorzy zaproponowali model dwufazowego porównywania cech. Pierwsza, wczesna faza polega na porównaniu zarówno cech rdzennych, jak i charakterystycznych. Jeśli obiekty są bardzo podobne albo bardzo niepodobne, to efekt porównania jest szybki i - odpowiednio - pozy tywny albo negatywny. Jeśli jednak obiekty nie są ani bardzo podobne, ani bardzo różne, porównywanie przechodzi do drugiej fazy, w której porównywane są wyłącznie cechy rdzenne. Jeśli stwierdzone zostanie ich podobieństwo, to
150
Rozdział 4. W iedza
następuje reakcja pozytywna, która jednak wymaga więcej czasu, jest bowiem efektem udziału obu faz. W przeciwnym razie, czyli jeśli cechy rdzenne okażą się różne dla porównywanych obiektów, emitowana jest reakcja negatywna, również stosunkowo powolna. Amos Tversky (1977) w odmienny sposób wyjaśniał proces porównywania znaczeń słów. Autor zaproponował mechanizm, który nie wymaga dodatkowego założenia o różnych typach cech, jak u Smitha i współpracowników. Mechanizm ten polega na porównaniu zbioru cech definiujących pojęcie zgodnie z poniższą formalizacją: s(fl, 6) = Of (A n JB) - a f ( A - B ) - pf (B - A ) , gdzie s(a, b) to podobieństwo znaczeń słów a i b; A i B - zestaw cech reprezentujący a i 6; f(X) - funkcja wagi cechy w zbiorze; O, a i p - stałe wagi zestawu. Podobieństwo jest tym większe, im więcej para znaczeń posiada cech wspólnych (A n B) i im mniej dystynktywnych ( A - B \ B - A ) . Tversky stwierdził pozytywną korelację oceny stopnia podobieństwa par znaczeń z liczbą cech wspólnych, zakładanych w modelach reprezentacji za pomocą cech, i korelację negatywną z liczbą cech różnicujących je. Model Tversky’ego dobrze tłumaczy pewne psychologiczne prawidłowości relacji podobieństwa, np. brak symetryczności i przechodniości. Relacja podobieństwa jest niesymetryczna, bo z faktu, że a jest podobne do b, nie wynika, że b jest podobne do a. Na przykład, często dostrzegamy podobieństwo dziecka do rodzica, ale rzadziej - podobieństwo rodzica do dziecka. W tym przypadku waga cech dystynktywnych dla rodzica przewyższa wagę cech wspólnych i dystynktywnych dla dziecka. Na tej samej zasadzie możemy powiedzieć, że Kazachstan jest podobny do Rosji, ale Rosja nie jest podobna do Kazachstanu. Ponadto relacja podobieństwa jest nieprzechodnia, bo z faktu, że a jest podobne do b, zaś b jest podobne do c, nie wynika, że a jest podobne do c. Na przykład Jaś jest podobny do Rysia (ze względu na kształt podbródka), Ryś jest podobny do Stasia (ze względu na kolor oczu), ale nie ma żadnego podobieństwa między Jasiem a Stasiem. Brak symetrii i przechodniości sprawia, że relacja podobieństwa wyróżnia się spośród większości relacji, takich jak wyższy/niższy, głupszy/mądrzejszy itd. Model Tversky’ego dobrze też wyjaśnia zależność oceny podobieństwa od kontekstu. Na przykład z trzech krajów: Rosja, Kazachstan i Uzbekistan, podobne wydają się Kazachstan i Uzbekistan, natomiast wśród krajów: Rosja, Kazachstan, Japonia, podobne wydają się Rosja i Kazachstan. W zależności od kontekstu zmieniają się wagi cech wspólnych i dystynktywnych, przez co obiekty wydają się mniej lub bardziej podobne. Analogiczne efekty uzyskano w odniesieniu do materiału niewerbalnego (zob. ryc. 4.3). Modele reprezentacji za pomocą cech mają jednak pewne ograniczenia. Po pierwsze, przyjmują założenie o niezależności cech i definiowanych przez nie obiektów. Jedyne relacje między obiektami, przewidywane przez te modele, wynikają z podobieństwa cech obiektów. Powszechnie jednak wiadomo, że wiedza ma pewną strukturę, opartą na niekiedy dość złożonych relacjach, których nie da się sprowadzić do podobieństwa. Po drugie, właściwie do dziś nie ma takiego modelu, który w sposób wiarygodny precyzowałby listę cech składających się na reprezentacje werbalne. Wiadomo dość dużo o fizycznych cechach stymulacji, podlegających integracji w procesie percepcji wzrokowej
4.2. Organizacja wiedzy
[ I |
12%
8%
151
80%
Ryc. 4.3. Zależność oceny podobieństwa od kontekstu (za: Tversky, 1977). W zestawie pierwszym twarze b i c są oceniane jako mniej więcej tak samo podobne do twarzy wzorcowej (u góry). W zestawie drugim te same twarze są oceniane inaczej (80% wskazań na twarz c), o czym zadecydował kontekst - dodanie nowej twarzy q.
(zob. rozdz. 5.2.2), niewiele natomiast wiadomo w odniesieniu do pojęć języka. Clark podjęła próbę stworzenia listy podstawowych cech pojęć języka, jednak należy ją uznać za raczej niekompletną (por. Markman, 2002).
4.2.2. Organizacja w iedzy semantycznej i
i
j ; I
Termin pamięć semantyczna pochodzi podobno od Quilliana (1966; za: Najder, 1992). W postać dojrzałej koncepcji, uzupełnionej o inne rodzaje pamięci, został jednak rozwinięty przez Endela Tulvinga (1972). Pojęcie pamięci semantycznej w rozumieniu Tulvinga oznacza „umysłowy słownik”: zorganizowaną wiedzę o symbolach werbalnych (głównie języka naturalnego), ich znaczeniu i odniesieniach, o relacjach między nimi oraz o regułach, formułach i algorytmach ma nipulacji tymi symbolami, pojęciami i relacjami. Innymi słowy, zawartość pamięci semantycznej stanowi wiedza o znaczeniach symboli i relacjach między nimi. Pamięć semantyczna, w przeciwieństwie do pamięci epizodycznej, to zapis
152
Rozdział 4. W iedza
wiedzy ogólnej „wyrwanej z autobiograficznego kontekstu” (por. Najder, 1992). Poszczególne koncepcje pamięci semantycznej ograniczyły się wyłącznie do opisu struktury wiedzy wyrażonej w języku naturalnym, pomijając wiedzę, któ rej symbolami nie są słowa. W ramach teorii wiedzy semantycznej przyjmuje się, że kodowaniu pod lega treść pojęć języka, czyli ich struktura głęboka, a nie struktura powierz chniowa, czyli forma informacji werbalnej. Z kolei dekodowanie informacji werbalnej polega na ponownym nałożeniu struktury powierzchniowej na ową treść. Wiedza semantyczna jest zorganizowana na kilku poziomach odpowia dających strukturze języka. Wyróżnia się poziom pojęć, sądów oraz ich ukła dów. W tym podrozdziale zajmiemy się teoriami dotyczącymi głównie poziomu sądów, w których wyrażają się relacje między pojęciami. W ich prezentacji na cisk położony zostanie na strukturę wiedzy. Procesami pamięciowymi, stano wiącymi procesualne podłoże nabywania i korzystania z wiedzy, zajmiemy się szerzej w rozdz. 9. Collins i Quillian (1969) zaproponowali koncepcję struktury wiedzy semantycznej opartej na dwóch jej właściwościach: budowie sieciowej i hierarchiczności. Wiedza zawarta w pamięci semantycznej ma postać sieci, w której węzłom odpowiadają pojęcia, a połączeniom między nimi - ich wzajemne relacje. Sieć jest zorganizowana hierarchicznie, co oznacza, że pojęcia bardziej ogólne znajdują się wyżej w hierarchii, przy czym odległość pojęć w sieci związana jest ściśle z podobieństwem ich znaczenia (zob. ryc. 4.4). Pojęcia o wyższym stopniu podobieństwa są reprezentowane przez węzły znajdujące się blisko w sieci i związane są pewną relacją (chociaż nie zawsze bezpośrednio, jak np. „zwierzę” i „kanarek”); pojęcia zupełnie różne od siebie będą reprezento wane przez odległe i niepowiązane ze sobą węzły. Pojedyncze relacje między pojęciami mają charakter binarny, czyli łączą tylko dwa węzły. Zdanie: „łosoś i rekin mają skrzela”, odnoszące się do trzech węzłów sieci, można rozbić na dwa prostsze zdania: „łosoś ma skrzela” i „rekin ma skrzela”. W podstawowej wersji model zakłada dwa rodzaje relacji między pojęciami. Pierwszy to relacja przynależności do klasy, np. łosoś jest rybą. Tego typu relacje obejmują pojęcia z dwóch różnych poziomów hierarchii sieci se mantycznej. Drugi to relacja predykatywna, czyli pełniąca funkcję orzeczenia. Relacja predykatywna zawiera wiedzę o właściwościach obiektu, np. „łosoś jest drapieżnikiem” albo „struś chowa głowę w piasek”. Tego typu relacje kodowane są w sieci na tym samym poziomie ogólności, na którym w hierarchii znajduje się dany obiekt. W teorii sieci wiedza reprezentowana jest w sposób najprostszy, a zarazem najbardziej ekonomiczny. Założenie o ekonomii poznania (zob. rozdz. 1.1.1) zostało w modelu sieci semantycznej wyrażone w postaci lduczowego twier dzenia, że relacje predykatywne kodowane są w sieci na możliwie najwyższym poziomie ogólności. Przykładowo, skoro każde zwierzę ujęte w przedstawionym fragmencie sieci semantycżnej oddycha, to właściwość ta może zostać zako dowana jako predykat wszystkich zwierząt. Co więcej, niekiedy ekonomiczne jest wprowadzenie do sieci pewnej niespójności. Na przykład właściwością ptaków jest to, że potrafią latać (zob. ryc. 4.4), co jak wiemy, nie zawsze jest prawdą, chociaż zdecydowana większość ptaków umiejętność tę posiada. Jeśli jednak jakiś ptak nie lata, to wystarczy przypisać mu właśnie taką właściwość.
4.2. O rganizacja w iedzy
153
jest pokryty skórą
aby ztożyć ikrę
Ryc. 4.4. Fragment sieci semantycznej wg Collinsa i Quilliana (1969).
Ponieważ analizę pojęć zawartych w naszej sieci semantycznej zaczynamy od węzła, który nas interesuje, np. pojęcia „struś”, to od razu natrafiamy na właściwość „nie lata”. Pojęcie „kanarek” bezpośrednio nie posiada predykatu odnoszącego się do umiejętności latania, ale ta właściwość może być wydobyta z sieci dzięki inferencji (skoro kanarek jest ptakiem, a ptaki latają, to kanarek również posiada tę umiejętność). Badania Collinsa i Quilliana (1969) wydawały się potwierdzać tego typu organizację wiedzy (zob. rozdz. 8.3.1). Okazało się, że im większa odległość w sieci pomiędzy danym pojęciem a jakimś jego predykatem (więcej węzłów na drodze między nimi), tym dłuższy jest czas dotarcia do tej informacji. Na przykład szybciej wydobywamy informację, że kanarek śpiewa, niż tę, że ma pióra. Najdłużej trwa wydobycie informacji, że kanarek oddycha. Predykcje te potwierdzono w wielu eksperymentach. Zaprezentowany fragment sieci semantycznej umieszczony jest w większej strukturze sieci semantycznej naszej wiedzy. Jest to możliwe przede wszystkim dzięki predykatom. Przykładowo, właściwość „potrafi latać” posiadają nie tylko ptaki, a również samoloty, balony, niektóre zabawki, pyłki roślin, a nawet ludzie, tyle że w sensie metaforycznym (potocznie mówi się np. „leć do sklepu”). Podobnie jest z wieloma innymi predykatami. Badania Collinsa i Quilliana (1969) przyniosły wiele danych potwierdza jących model sieci hierarchicznej (zob. rozdz. 8). Szybko zgromadzono jednak dane sprzeczne z tym modelem. Okazało się, że związek między czasem dostępu do wiedzy nie jest liniową funkcją postulowanej odległości węzłów w sieci. Rips,
154
Rozdział 4. Wiedza
Shoben i Smith (1973) wykryli, że stwierdzenie, iż „kot jest zwierzęciem”, jest szybsze niż to, że „kot jest ssakiem”. Z modelu sieci semantycznej wynikały dokładnie przeciwne predykcje. „Zwierzę” jest pojęciem bardziej ogólnym niż „ssak”, a więc w hierarchii wiedzy odległość pojęć „kot - ssak” jest mniejsza niż odległość pojęć „zwierzę - ssak”. Z kolei Conrad (1972) wykryła, że stwier dzenie, iż „kanarek jest ptakiem”, jest szybsze niż to, że „struś jest ptakiem”. Model sieci semantycznej nie przewidywał tego typu różnic, ponieważ hipote tyczna odległość pojęć „kanarek” i „struś” od pojęcia „ptak” jest w nim iden tyczna. Model Collinsa i Quilliana dopuszczał co prawda różnice indywidualne dotyczące wiedzy, ale dotyczyły one jedynie jej treści, a nie samej struktury. Innymi słowy, model dopuszczał różnice zarówno w liczbie węzłów, jak i bo gactwie ich predykatów, ale nie dopuszczał innej struktury niż hierarchiczna. Pod adresem modelu Collinsa i Quilliana (1969) wysunięto więcej zastrzeżeń, dotyczących nie tylko struktury wiedzy, ale również procesu jej wydobywania z pamięci. W związku z tym Collins, tym razem wraz z Elisabeth Loftus (1975), dokonali interesującej rewizji modelu. Collins i Loftus (1975) utrzymali założenie o sieciowej strukturze wiedzy, lecz osłabili założenie o jej hierarchicznej organizacji. Za podstawowy czynnik decydujący o połączeniach między elementami wiedzy uznali siłę związku skojarzeniowego, który je łączy. Dlatego bardziej typowe obiekty są szybciej identyfikowane jako należące do określonej kategorii (np. wróbel jako ptak). Również ze względu na większą siłę skojarzeniową połączenie „kot - zwierzę” może być mocniejsze niż „kot - ssak”. Jeśli za podstawowy mechanizm tworzenia struktury wiedzy uznać siłę związków skojarzeniowych, ewentualna hierarchiczność tej struktury staje się drugorzędna. Może być ona pełna, np. w grupie osób o dobrym wykształceniu biologicznym (nawiązując do przykładu sieci z ryc. 4.4), albo niepełna, jeśli wiedza w danym zakresie jest cząstkowa lub została wyabstrahowana z doświadczenia. Collins i Loftus dokonali uszczegółowienia sposobu reprezentowania pojedynczych elementów wiedzy, zapożyczając pewne elementy modelu opar tego na cechach (zob. rozdz. 4.2.1). Struktura wiedzy ma postać sieci, w której węzłom odpowiadają pojęcia, podczas gdy ich etykiety werbalne są reprezento wane w postaci odrębnej struktury, zwanej wewnętrznym leksykonem. Leksykon zorganizowany jest według fonetycznego i semantycznego podo bieństwa zawartych w nim nazw pojęć, które są połączone z jednym lub większą liczbą odpowiadających tym nazwom węzłów w sieci. Z kolei węzły połączone są z sobą relacjami o charakterze semantycznym. Im więcej połączeń między węzłami, tym większa siła skojarzeniowa danego związku. Większa liczba po łączeń jest możliwa dzięki bogatszej „liście” predykatów. Większa zgodność tych „list” w obrębie dwóch pojęć sprawia, że więcej jest między nimi połączeń, a ponadto że sposób ich łączenia może być bardzo różnorodny. Na przykład pojęcia „stół” i „krzesło” są silnie powiązane, być może dzięki sporej liście wspólnych predykatów (zob. ryc. 4.5). Ich jednoczesne wzbudzenie jest możliwe dzięki aktywacji wiedzy związanej z charakterystycznymi miejscami (jadalnia, kawiarnia, biuro projektowe), okolicznościami (śniadanie, imieniny, sprzątanie) itd. Collins i Loftus wzbogacili listę relacji, dzięki którym pojęcia i ich predykaty łączą się z sobą. Główna zmiana polegała na włączeniu, obok relacji przyna leżności do kategorii i relacji predykatywnej, relacji „bycia przedstawicielem
4.2. Organizacja wiedzy
155
Ryc. 4.5. Hipotetyczne predykaty pojęć „stół” i „krzesło”. Znaczna ich część może być wspólna dla obu pojęć (oprać, własne).
kategorii”, np. mebel ma za egzemplarz krzesło, ptak ma za egzemplarz kanarka. Zauważmy, że jest to połączenie odwrotne względem relacji przynależności do kategorii, np. krzesło jest to mebel albo kanarek jest to ptak. Zatem - według Collinsa i Loftus - połączenia pomiędzy węzłami mogą być obustronne, ale nie koniecznie symetryczne: ich siła może być różna w zależności od kierunku relacji. Mówiąc obrazowo, ważniejsze wydaje się, że kanarek należy do kategorii ptaków, niż że ptak ma jako egzemplarz kanarka. Struktura wiedzy, oraz oczywiście jej zawartość, nie jest zatem w modelu Collinsa i Loftus zunifikowana, bowiem pojęcia mogą być połączone w zasadzie dowolnie. Im pojęcie jest bogatsze semantycznie, z tym większą liczbą węzłów może być połączone. Przykład sieci semantycznej w tym ujęciu przedstawia ryc. 4.6. Proces przywoływania wiedzy odbywa się dzięki mechanizmowi rozprze strzeniającej się aktywacji. Przywołanie jednego pojęcia powoduje, że aktywacja rozchodzi się w sieci jednocześnie w wielu kierunkach. Kierunki rozprzestrze niania są wyznaczone przez strukturę połączeń w sieci: aktywacja słabnie wraz z oddalaniem się od pojęcia wyjściowego, ale też zależy od liczby i siły połączeń między węzłami. Jeśli dane pojęcie ma bogatą strukturę połączeń, mechanizm rozprzestrzeniającej się aktywacji może wzbudzić wiele innych węzłów (chyba że niektóre połączenia będą aktywnie hamowane). Jeśli struktura połączeń jest uboga, liczba wzbudzonych węzłów będzie niewielka. Wielkość aktywacji podlega ograniczeniom, co oznacza, że siła wzbudzenia jest odwrotnie pro porcjonalna do liczby wzbudzonych węzłów. W uproszczeniu: jeśli mechanizm rozprzestrzeniającej się aktywacji wzbudzi sześć węzłów, to każdy z nich otrzyma dwa razy mniej aktywacji, niż gdyby wzbudzone zostały tylko trzy węzły. Z kolei siła połączeń wpływa na zakres rozchodzenia się pobudzenia. Jeśli połączenia są słabe, pobudzenie będzie szybko zanikać wraz z oddalaniem się od pojęcia wyjściowego.
156
Rozdział 4. W iedza
Ryc. 4.6. Fragment sieci semantycznej wg Collinsa i Loftus (1975).
Teoria rozprzestrzeniającej się aktywacji dobrze tłumaczy efekty, które były kłopotliwe dla teorii sieci semantycznej, w szczególności fakt, że reakcja za przeczenia absurdalnemu twierdzeniu typu „ptak jest cegłą” trwa bardzo krótko. Wyniki badań empirycznych z użyciem tego typu zdań okazały się „zabójcze” dla teorii sieci hierarchicznej (zob. rozdz. 8.3.1). Początkowo zakładano, że czas weryfikacji zdań fałszywych powinien być bardzo długi. Falsyfikacja wymaga łaby bowiem w tym wypadku poruszania się w hierarchii najprawdopodobniej aż do poziomu „materii ożywionej”, gdzie odnajdujemy predykat „jest żywy”, ewidentnie sprzeczny z właściwościami cegły. Jednak już w momencie pierwszej publikacji teorii rozprzestrzeniającej się aktywacji pojawiły się głosy krytyczne pod jej adresem (np. Woods, 1975). Krytyce poddano niedoprecyzowane charakterystyki węzłów i połączeń w sie ciach. Woods (1975) podkreśla, że nie ma empirycznego sposobu na oddzielenie informacji reprezentowanej w postaci węzłów i w postaci relacji. W zasadzie jest to więc założenie nieweryfikowalne, co oznacza, że nie mamy sposobu na stwierdzenie, czy rzeczywiście wiedza ma organizację sieciową, nawet w rozu mieniu „wirtualnym”. To poważny zarzut. Nie wiadomo także, jakie są cechy dystynktywne różnego typu relacji między węzłami w sieci. Zakłada się istnienie co najmniej kilku tego typu relacji, natomiast nie wiadomo, jaki jest swoisty dla każdej relacji mechanizm rozprzestrzeniania się aktywacji. W szczególności nie wiadomo, czy aktywacja rozprzestrzenia się tak samo w przypadku, gdy węzły
4.2. Organizacja w iedzy
157
łączą się na zasadzie przynależności kategorialnej (stół-mebel), jak i w przy padku, gdy łączy się ona na zasadzie skojarzenia (stół-krzesło). Inny zarzut dotyczy ograniczenia zakresu wyjaśnień formułowanych odnośnie do mecha nizmu rozprzestrzeniającej się aktywacji. Mechanizm ten dobrze wyjaśnia zjawiska oparte o skojarzenia, związane ze specyficzną treścią i kontekstem używanej wiedzy. Nie wyjaśnia natomiast udziału innych operacji poznawczych, takich jak rozumowanie dedukcyjne. Słabo radzi sobie również z wyjaśnieniem tego, jak korzystamy z wiedzy, np. rozwiązując złożone problemy. Dopiero połączenie sieciowych teorii organizacji wiedzy deklaratywnej i regułowych teorii wiedzy proceduralnej pozwoliło na zwiększenie trafności modeli organizacji wiedzy. Przykładem teorii ujmującej jednocześnie oba rodzaje wiedzy jest teoria ACT Andersona, opisana w podrozdz. 4.2.4. Zanim przejdziemy do jej omówienia, przedstawimy ideę systemów regułowych.
4.2.3. Organizacja w iedzy proceduralnej: system y reguł Wiedza proceduralna jest uporządkowana i przechowywana inaczej niż deklaratywna. W koncepcjach tego typu zakłada się, że jeśli człowiek opanował jakąś czynność, jego wiedza jest poznawczo reprezentowana za pomocą zestawu reguł. Reprezentacja tego typu pozwala na tworzenie procedur działania2. W związku z tym systemy wiedzy proceduralnej noszą nazwę systemów reguł lub systemów produkcji (production systems; Newell, Simon, 1972). Ze wzglę dów językowych od tej pory będziemy używać wyłącznie pierwszego terminu. Każda reguła składa się z warunku wyznaczającego zbiór właściwości, które muszą być spełnione, aby uruchomić daną czynność, i samej czynności, czyli zbioru produkcji. Niektóre (rzadziej wszystkie) właściwości danej sytuacji są najpierw zestawiane z warunkami używania różnych reguł. Jeśli przeprowa dzone w ten sposób „testy” wykażą satysfakcjonujący poziom odpowiedniości dla aplikacji jednej z nich, jest ona uruchamiana. Na przykład w trakcie jazdy na nartach sytuacja na stoku i położenie naszego ciała są zestawiane z warunkami użycia różnych reguł korekty toru jazdy i ruchów ciała. Po ustaleniu zgodności warunków zewnętrznych reguł, którymi dysponujemy, uruchomiona zostaje jedna lub więcej z nich. Reguły podlegają indeksacji, aby możliwe było ich odróżnienie ze względu na różne zestawy warunków (Simon, Kapłan, 1989). Może się jednak zdarzyć, że kilka reguł wykaże satysfakcjonującą zgodność warunków ich uruchomienia (np. jednocześnie skręt w lewo, zmiana położenia tułowia i ruch kijkami). Jeśli nie jest możliwa jednoczesna aplikacja wszystkich reguł (np. jednocześnie skręt w lewo i w prawo), wówczas struktura kontrolna (control structure) dokonuje wyboru jednej z nich. Obowiązuje wtedy tzw. zasada specyficzności reguł, 2 Zgodnie z rozwiązaniem terminologicznym przyjętym przez Andersona (1982), odróżniamy procedurę od produkcji. Anderson mówi o procedurze w skali „makro”, czyli np. kierowania samochodem, a o produkcji w skali „mikro”, czyli wszelkich składowych tej procedury (zapalanie, ruszanie, zmiana biegów, hamowanie, włączanie kierunkowskazów itd.). Procedury mają strukturę hierarchiczną, więc np. zmiana biegów składa się z bardziej elementarnych produkcji, z których część jest zawsze identyczna, jak wciśnięcie sprzęgła, a część jest różna, jak ruch lewarkiem zmiany biegów, który jest odmienny w zależności od przełożenia aktualnego i docelowego.
158
Rozdział 4. W iedza
według której prymat ma reguła bardziej wyspecjalizowana. Przykładowo, ogólna reguła mówi, że jeśli posługujemy się dwoma sztućcami, to widelec należy trzymać w lewej ręce. Wyjątkiem jest np. konsumpcja spaghetti, kiedy widelec należy trzymać w ręce prawej. Dzięki wspomnianej zasadzie najpierw sprawdzane są warunki użycia reguły opisującej odstępstwa od reguły bardziej ogólnej. Regułę przedstawia się najczęściej w postaci implikacji - „jeżeli (wa runki)..., to (działanie)...” Na przykład „jeżeli chcę napisać na komputerze literę „A”, to muszę wcisnąć kombinację klawiszy „shift” + „a”. Ponieważ po czątkowo przyjmowano, że reguła ma postać algorytmu, okazywało się, że nawet tak prostej czynności odpowiada szereg elementarnych „produkcji”. Dokład niejszy algorytm systemu reguł dla tego przykładu zamieszczono poniżej. Zwróćmy uwagę, że reguły mogą być zagnieżdżone w innych, a te w kolejnych, aż do poziomu najbardziej elementarnego. Zauważmy również, że nawet w tak prostej czynności różne reguły połączone są systemem złożonych zależności. Przyjmijmy założenie, że jesteśmy w trakcie pisania jakiegoś tekstu (w przeciw nym razie wcześniej należałoby wykonać szereg innych procedur, np. sprawdzić, czy włączony jest komputer i uruchomiony edytor tekstów, które są o wiele bardziej złożone niż samo pisanie). Jeżeli chcę napisać na komputerze literę „A”, to: -> (1) sprawdzam, czy kursor jest na właściwym miejscu ekranu, jeżeli „tak”, to krok (2); jeżeli „nie”, to uruchamiam regułę „zmiany lokalizacji kursora”, a potem krok (2); -> (2) sprawdzam, czy włączony jest „Caps Lock” jeżeli „tak”, to krok (3); jeżeli nie, to uruchamiam regułę wciśnięcia klawisza „Shift” (która sama w sobie jest na tyle złożoną czynnością wykonawczą, że może posiadać osobną reprezentację regułową), a potem krok (3); -> (3) uruchamiam procedurę wciśnięcia klawisza „a”, a potem krok (4); -> (4) sprawdzam, czy na ekranie pojawiła się właściwa litera jeżeli „tak”, to kończę regułę jeżeli „nie”, to uruchamiam regułę wciśnięcia klawisza „Backspace” i wracam do punktu (2). W nowszych koncepcjach (np. Chamiak, McDermott, 1985) system reguł odwołuje się do dwóch rodzajów pamięci: proceduralnej (production memory; bardziej dosłownie: zawierającej „produkcje”) i roboczej (working memory). Pierwsza zawiera schematyczne reguły w postaci: „jeżeli (warunki)..., to (dzia łanie)...”. Druga natomiast zawiera reprezentację aktualnego stanu, np. rozwią zywanego problemu, oraz inicjuje określone procedury stanowiące wiedzę proceduralną. Korzystanie z niej jest powtarzalnym cyklem selekcji reguł z pa mięci proceduralnej z wykorzystaniem procedury kontrolnej, sprawdzającej, czy
4.2. Organizacja wiedzy
159
warunki jej użycia odpowiadają zawartości pamięci roboczej. Jeśli zgodność taka występuje, to reguła jest realizowana. Przyjmuje się, że w procesie korzystania z wiedzy proceduralnej może mieć udział specyficzny bufor pamięci. Zawiera on pewien zbiór reguł, które zostały użyte w trakcie realizacji bieżącego zadania. Najczęściej chodzi o procedury zastosowane już w trakcie jego wykonania. Założenie to wprowadzono, aby wyjaśnić, w jaki sposób mało pojemna pamięć robocza, zawierająca tylko bieżący stan i wykonywaną w danym momencie procedurę, chroni się przed perseweracją, czyli uporczywym stosowaniem jednej procedury, mimo że nie przyniosła ona pożądanego skutku. Jest to tzw. zasada niepowtarzalności reguł. Dzięki pamiętaniu tych epizodów użycia różnych reguł, możliwe jest również doskonalenie metawiedzy, dotyczącej - w tym wypadku - skuteczności procedur (a szczególnie jej braku) w określonych warunkach.
4.2.4. Organizacja w iedzy w modelach ACT, ACT* i ACT-R Teorię ACT3 (adaptive control of thought) zapoczątkował w latach 70. XX w. John Anderson, który ciągle ją rozwija, tworząc kolejne wersje. Anderson (1976) podjął próbę opracowania modelu pamięci, który byłby na tyle ogólny, aby pozwolił na wyjaśnianie złożonych procesów poznawczych, takich jak myślenie, posługiwanie się językiem lub podejmowanie decyzji. Model ACT wywodził się z modelu pamięci HAM (human associative memory) Andersona i Bowera (1973). Jednak Anderson rozwinął tę koncepcję, uwzględniając w niej nie tylko strukturę pamięci, ale również procesy przetwarzania informacji; miał ambicję opisania w niej całej architektury umysłu (Anderson, 1995). Model ACT był kilkakrotnie modyfikowany, a w najnowszej wersji pozwala na two rzenie symulacji komputerowych (ACT* - Anderson, 1983a; ACT-R-Anderson, 1991; Anderson, Lebiere, 1998). W swoim modelu Anderson uwzględnił podział Ryle’a (1949) na wiedzę „że” i wiedzę „jak”. Podział ten zaaplikował w postaci rozróżnienia pamięci deklaratywnej i proceduralnej (zob. ryc. 4.7). Podobnie jak w modelach sie ciowych, wiedza deklaratywna jest reprezentowana w postaci struktury węzłów i relacji między nimi. Węzły reprezentują jednostki informacji, a relacje powiązania między jednostkami. Anderson przyjął eklektyczny model repre zentacji informacji: wiedza w ACT* może mieć postać sądów, ale również obrazów, a nawet następstwa czasowego (np. kolejności zdarzeń, podobnie jak w teorii ram Minsky’ego; zob. rozdz. 3.3.2). Wiedza deklaratywna reprezentowana jest w postaci jednostek (chunks) informacji: struktur o charakterze schematów, złożonych z centralnego węzła (pointer) określającego kategorię, do której należy dana jednostka, i dodatko wych węzłów, reprezentujących jej właściwości. Rycina 4.8 obrazuje przykład kodowania faktu, że „3 + 4 = 7”. Połączenia między węzłami charakteryzują się określoną siłą związku skojarzeniowego. Aktywacja węzła może być wywołana bezpośrednio dzięki bodźcom pochodzącym ze środowiska, albo dzięki przywołaniu informacji z pa3 Wymawiamy: akt.
160
Rozdział 4. W iedza
Ryc. 4.7. Model związków między pamięcią deklaratywną i proceduralną a pamięcią operacyjną w ujęciu Andersona (1983). Wiedza deklaratywna jest zapamiętywana i wydobywana za pośrednictwem pamięci operacyjnej (roboczej). Ponowne użycie wiedzy wiąże się z jej przywołaniem do pamięci operacyjnej. Wiedza proceduralna uruchamiana jest po stwierdzeniu dopasowania warunków jej wywołania do sytuacji w otoczeniu. Jej stosowanie może odbywać się automatycznie, tj. bez udziału pamięci operacyjnej.
mięci bądź pośrednio - poprzez mechanizm rozprzestrzeniającego się pobu dzenia. Każdemu elementowi wiedzy przypisana jest pewna wartość aktywacji bazowej. Zależy ona od liczby jego uprzednich przywołań: elementy często przywoływane są bardziej aktywne; utrwalają się również częściej wykorzys tywane połączenia między węzłami. Aktywacja jest limitowana pojemnością pamięci roboczej i czasem: tylko niewielka część węzłów może być jednocześnie aktywna, a ponadto ich aktywność szybko zanika wraz z upływem czasu. Akty wacja determinuje zakres wiedzy dostępnej bieżącemu przetwarzaniu (Ander son, Reder, Lebiere, 1996). Zatem o charakterze bieżącego przetwarzania de cyduje z jednej strony struktura wiedzy deklaratywnej, a z drugiej strony spraw ność mechanizmu aktywacji. Pierwszy element determinuje treść przetwarzania, a drugi jego zakres. Wiedza proceduralna reprezentowana jest w postaci reguł aplikowanych w celu przetwarzania wiedzy deklaratywnej, a także w postaci informacji za wartych w tzw. buforach wyspecjalizowanych modułów: wzrokowego, słucho wego i motorycznego (Anderson, Matessa, Douglass, 1995). Anderson opisał dość dokładnie mechanizm nabywania tej wiedzy. Zajmiemy się nim bliżej w rozdz. 4.3.2. Istotne jest to, że proces ten przebiega, według Andersona, od jawnych deklaracji do niejawnych procedur. W implementacji obliczeniowej ACT-R procedury opatrzone są parametrami określającymi prawdopodobień stwo osiągnięcia wyznaczonego celu i czas jej wykonania. System wyposażony
4.2. Organizacja w iedzy
161
dodawanie
Ryc. 4.8. Reprezentacja jednostek informacji w ACT-R (za: Anderson, 1996, s. 356).
jest również w centralny mechanizm kontrolny, który zajmuje się aplikacją wiedzy proceduralnej do treści zawartych w sieci semantycznej i modułach. Przeprowadzono wiele badań poświęconych weryfikacji modelu ACT. Skupmy się na tych, które dotyczyły problemu struktury wiedzy. Empirycznie potwierdzono podstawowy dla modelu związek częstości użycia wiedzy z jej późniejszą dostępnością. Częściej przywoływana informacja jest łatwiej i szybciej dostępna, co zgadza się z hipotezą zróżnicowanej siły połączeń w sieci semantycznej (por. Anderson, 1976). ACT wyjaśnia również zjawisko interferencji, kiedy to jedna z konkurencyjnych informacji pozostaje niedo stępna. Wyjaśnienie tego zjawiska oparto na tzw. efekcie wachlarza (fan effect): połączenia odchodzące od każdego z węzłów sieci przypominają wachlarz, szczególnie jeśli jest ich wiele. W teorii Andersona przewiduje się, że im szerszy jest ten wachlarz, na tym więcej połączeń rozkłada się aktywacja danego węzła. Tym samym więcej czasu zajmie wzbudzenie odpowiedniej aktywacji innych węzłów. Innymi słowy, czas uzyskania progowej aktywacji węzłów sąsiadują cych z „X” jest tym dłuższy, im większa jest liczba relacji, w jakie „X” wchodzi. Może wówczas dochodzić do specyficznej interferencji. W warunku presji czasu wydobyte zostają tylko najsilniej wzbudzone pojęcia, dzięki silnym asocjacjom istniejącym w sieci (np. stół - krzesło). Inne natomiast nie uzyskają odpowied niego poziomu wzbudzenia. Pozostaną więc niedostępne. Interferencja w tym przypadku polega więc na zakłócaniu przywołania pojęć bardziej odległych od „X”, które mogą być bardziej adekwatne do zadania (np. potrzebne do wykonania testu odległych skojarzeń). Zakłócenie to wywołane jest nadmier nym pobudzeniem pojęć silnie związanych z „X”. Lewis i Anderson (1976) potwierdzili podstawowe predykcje modelu ACT. W swoich badaniach użyli specyficznych zadań leksykalnych (zob. tab. 4.1). W pierwszej fazie eksperymentu osobom badanym prezentowano serię zdań, przy czym większość z nich, związana z jednym obiektem (Napo-
162
Rozdział 4. W iedza
Tab. 4.1. Zadanie leksykalne użyte w badaniach Lewis i Andersona (1976). Opis w tekście. Wartość podana w nawiasie obok zdań użytych w drugiej fazie eksperymentu oznacza liczbę zdań, które dotyczyły danej osoby w pierwszej fazie. Przykłady zdań fałszywych użytych w pierwszej fazie eksperymentu: George Washington napisał Przygody Tomka Sawy era. Napoleon Bonapatre pochodził z Indii. Napoleon Bonaparte był piosenkarzem. Napoleon Bonaparte był senatorem liberałów. Napoleon Bonaparte posiadał ranczo. Przykłady zdań użytych w drugiej fazie eksperymentu: Zdania prawdziwe Fidel Castro jest Kubańczykiem. (0) George Washington przeprawił się przez rzekę Delaware. (1) Napoleon Bonaparte był cesarzem. (4) Zdania fałszywe (stare) George Washington napisał Przygody Tomka Sawyera. (1) Napoleon Bonapatre pochodził z Indii. (4) Zdania fałszywe nowe Fidel Castro był politykiem z Teksasu. (0) George Washington jest pływakiem. (1) Napoleon Bonaparte był komikiem. (4)
leon Bonaparte), miała wzbudzać szerszy wachlarz odpowiedniego węzła sieci. W tej fazie eksperymentu inne obiekty były wzbudzane słabiej (George Washington) albo wcale (Fidel Castro), przy czym prezentowane zdania były fałszywe. W fazie drugiej - testowej - prezentowano zdania prawdziwe albo fałszywe. Zadanie osób badanych polegało na weryfikacji prawdziwości zdań. Okazało się, że czas weryfikacji zdań związanych z danym obiektem był dłuższy w przypadku postaci, którym przypisano więcej zdań w fazie pierwszej. Fałszywe zdania pochodzące z tej fazy wywołały silniejszą interferencję, po wodując wydłużenie czasu dostępu do utrwalonej wiedzy semantycznej z zakre su historii. Problemem tym zajęli się również Reder i Ross (1983). Plan ekspery mentalny ich badań był podobny jak u Lewisa i Andersona, z tym że w fazie uczenia się badani otrzymywali zdania o nieznanych im postaciach. Faza testowa mogła przyjąć dwie formy. Pierwsza polegała na rozpoznaniu, czy dane zdanie było już wcześniej prezentowane. Uzyskane wówczas wyniki były zgodne z efektem wachlarza: czas reakcji wzrastał wraz z liczbą zdań o danej osobie, zaprezentowanych w fazie uczenia się. Zreplikowano więc rezultaty uzyskane przez Lewisa i Andersona. Druga forma testu polegała na ocenie, jakie jest - w świetle posiadanej wiedzy pochodzącej z wnioskowania ze zdań eksponowanych w fazie uczenia się - prawdopodobieństwo trafności innych zdań o tej osobie. Innymi słowy, dysponując pewną wiedzą o fikcyjnej osobie, należało stwierdzić, na ile tezy zawarte w zdaniach prezentowanych w teście wydają się zasadne. W tym warunku uzyskano efekt przeciwny: im więcej zdań zaprezentowano o danej postaci, tym szybsza była odpowiedź w fazie testowej.
4.3. N abywanie w iedzy
163
4.3. Nabywanie wiedzy Podobnie jak opisane wcześniej modele organizacji wiedzy są częścią modeli struktury pamięci, nabywanie wiedzy należy do szerszej klasy procesów zapa miętywania i uczenia się. W pierwszej kolejności dokonajmy zatem rozróżnienia pojęć kodowania informacji, zapamiętywania i uczenia się oraz pojęcia na bywania wiedzy. Kodowanie informacji odbywa się w każdym z hipotetycznych magazynów pamięciowych: sensorycznym (w formie reprezentacji odpowiada jącej specyfice informacji, np. wizualnej, akustycznej), pamięci krótkotrwałej f i długotrwałej (zob. rozdz. 8.1). W warunkach laboratoryjnych kodowanie in formacji bada się zazwyczaj niezależnie od wewnętrznego kontekstu posiadanej [ wiedzy. Badania nad kodowaniem informacji mają na celu przede wszystkim I odpowiedź na pytanie o formę reprezentacji kodowanej informacji. Zapamięty| wanie dotyczy z kolei pamięci krótkotrwałej i długotrwałej. W tym wypadku ■ podstawowym celem badań jest z jednej strony próba odpowiedzi na pytanie [ o organizację materiału w pamięci, a z drugiej strony - o przebieg procesów \ pamięciowych: zapamiętywania, przechowywania i odpamiętywania informacji. [ Zarówno w badaniach nad kodowaniem, jak i zapamiętywaniem badacze \ koncentrują się przede wszystkim na sformułowaniu teorii na tyle ogólnych, aby I wyjaśniały omawiane zjawiska na poziomie formalnym (forma reprezentacji: ! analogowa czy propozycjonalna należy również do formalnej charakterystyki [ stymulacji). Analiza nabywania wiedzy ogranicza się do trwałego jej reprezent towania w pamięci długotrwałej, przy czym kluczowa wydaje się jej treść, | a zwłaszcza organizowanie jej w większe struktury. i Przedstawione w rozdz. 4.2 modele organizacji wiedzy przyjmują założenie, \ że w warstwie formalnej organizacja ta jest niezależna od treści, ale zawartość [ systemu wiedzy semantycznej, jak i systemu reguł proceduralnych jest unikalna l dla jednostki. Metodą nabywania wiedzy jest oczywiście proces uczenia się, ale [ w wąskim jego rozumieniu. Specyfiką tego procesu jest odniesienie nabywanych j treści do posiadanej już wiedzy, organizowanie jej w większe struktury oraz : porządkowanie w postaci abstrakcyjnych zasad.
4.3.1. Nabywanie wiedzy semantycznej i ; | \ [ | [ [ [ j I
W modelach pamięci semantycznej (Collins, Loftus, 1975; Collins, Quillian, 1969) nabywanie wiedzy polega na tworzeniu nowych węzłów oraz łączeniu zarówno nowych, jak i istniejących węzłów za pomocą nowych połączeń. Precyzyjniej rzecz ujmując, nowy węzeł zostaje wbudowany w strukturę sieci poprzez powiązanie go z innymi węzłami. Aby to mogło nastąpić, niezbędne jest utworzenie zestawu predykatów. Im jest on większy, tym - przynajmniej potencjalnie - więcej połączeń z innymi węzłami może zostać utworzonych. Natomiast istniejące już węzły mogą zostać połączone ze sobą nowymi asocjacjami, również bez dostarczenia nowej informacji z zewnątrz. Źródłem nowych połączeń, przewidywanych w teoriach sieciowych, jest odnalezienie wspólnych predykatów dla co najmniej dwóch węzłów. Inaczej wyjaśniany jest proces nabywania wiedzy semantycznej w teorii [ ACT-R Andersona. Jednostki wiedzy (chunks) tworzone są dzięki regułom
164
Rozdział 4. W iedza
produkcji, aplikowanym do informacji pochodzącej ze środowiska, a dokładnie jej reprezentacji w pamięci operacyjnej. Jest to bardzo interesujące ujęcie naby wania wiedzy, w którym wiedza proceduralna (reguły produkcji) służy budo waniu trwałych reprezentacji wiedzy deklaratywnej. Anderson opisał ten proces bardzo szczegółowo, ale wyłącznie w odniesieniu do informacji wzrokowej (Anderson, Matessa, Douglass, 1995).
4 .3.2. Nabywanie w iedzy proceduralnej Proces nabywania wiedzy proceduralnej dokładnie opisał Anderson w swojej teorii ACT. W tym ujęciu nabywanie wiedzy proceduralnej jest powolnym procesem przekształcania jawnej wiedzy deklaratywnej w niejawne procedury działania. Proces ten, nazwany przez autora proceduralizacją, zachodzi w trzech etapach: deklaratywnym, kompilacyjnym i proceduralnym. W pierwszym etapie jednostka otrzymuje zestaw instrukcji, które dotyczą określonej umiejętności oraz sposobu jej nabywania. Za pomocą tzw. ogólnych procedur interpretacyj nych stosowanych w odniesieniu do dostarczonej wiedzy deklaratywnej, two rzone są procedury działania. Przykładowo, w trakcie nauki pisania dziecko otrzymuje zestaw informacji deklaratywnych (nazwa litery, jej graficzne składniki, wyrazy rozpoczynające się od tej litery), opatrzony zazwyczaj omówieniem i ilustracją sposobu zapisywania konkretnej litery. Etap drugi kompilacyjny - polega na ćwiczeniu reguł dostarczonych i wygenerowanych dzięki procedurom interpretacji. Proces ten jest wysiłkowy i podlega świadomej kontroli. Szczegółowym mechanizmem tego procesu jest, po pierwsze, tzw. kompozycja, polegająca na łączeniu dwóch lub więcej procedur w jedną. Anderson uważa, że proces ten odbywa się w pamięci roboczej, powodując początkowo znaczne jej obciążenie. Podczas doskonalenia umiejętności pisania odrębne procedury rysowania części składowych liter (np. „owalu” i „laseczki” w „a” pisanym, albo innej „laseczki” i poziomej kreski w „t”) łączone są w całości - zintegrowane procedury. W trakcie dalszej praktyki te zintegrowane już procedury stawiania pojedynczych znaków liter łączone są ze sobą w sposób umożliwiający pisanie wyrazów bądź ich części bez odrywania pióra, co przyspiesza pisanie i decyduje o unikalnym charakterze pisma jednostki (zob. ryc. 4.9). Drugi mechanizm kompilacji to automatyzacja, dzięki której skompono wane w większe całości procedury (tzw. makroprodukcje) w coraz mniejszym stopniu obciążają pamięć roboczą. Jej odciążenie wiąże się z wyeliminowaniem udziału wiedzy deklaratywnej, przywoływanej do pamięci roboczej w procesie wykonania danej procedury. Procedura wykonywana jest bezpośrednio z po ziomu pamięci trwałej, w której została utrwalona. Kompilacja prowadzi do trzech efektów: zwiększenia tempa wykonania danej czynności, wyeliminowania pośrednictwa wiedzy deklaratywnej, a co za tym idzie również konieczności werbalizacji oraz połączenia wielu kroków złożonych czynności w jedną, autonomiczną procedurę. Ostatni etap - proceduralny - jest już automatyczny i niemal bezwysiłkowy: pisanie, kontynuując powyższy przykład, staje się czynnością autonomiczną.
4.3. N abyw anie w iedzy
t^ tb £ l£ ^
165
jł/6C iX $A ~ > *= 4/U ^
Ryc. 4.9. Pojęcie „wiedza proceduralna” napisane przez siedmiolatka (lewa strona) i każdego z autorów niniejszego podręcznika (prawa strona). Zwróćmy uwagę na sposób łączenia liter w pisowni: u osób dorosłych jest on naturalny i zróżnicowany indywidualnie. W przypadku siedmiolatka zauważyć można niezakończony jeszcze proces kompozycji w odniesieniu do litery „r” (oprać, własne).
Może być więc wykonywana bez kontroli świadomości, która - uwolniona od tego ciężaru - może zostać w całości przydzielona generowaniu zapisywanych treści. Pisanie nadal wymaga jednak kontroli ze strony uwagi wzrokowej, o czym można się przekonać, próbując napisać coś z zamkniętymi oczyma. Nawet jeśli się to świetnie uda, niezbędna jest koncentracji na samej czynności pisania. Kontrola taka niezbędna jest w przypadku wielu innych, wydawałoby się perfekcyjnie sproceduralizowanych czynności, takich jak chodzenie czy u wprawnych kierowców - prowadzenie samochodu. Proceduralizacji wiedzy towarzyszą dwa istotne zjawiska. Pierwszym jest generalizacja, czyli uogólnianie nabywanej wiedzy proceduralnej na szerszą klasę sytuacji. Dwuletniemu dziecku chodzenie po prostej i równej nawierzchni w znanym mu otoczeniu może nie sprawiać problemów. Jednak na nierównym chodniku, a nawet po zmianie rodzaju podłoża (z prostej i gładkiej domowej podłogi na niemal równie prostą, ale szorstką nawierz chnię alejek w parku) chodzenie staje się niebezpieczne. Jednak w trakcie na bywania wprawy, umiejętność chodzenia dostosowuje się do szerokiej kla sy sytuacji. Drugim zjawiskiem towarzyszącym proceduralizacji jest różni cowanie, polegające na odróżnianiu warunków uruchomienia różnych proce dur. Chodzi o to, aby w zmieniającej się sytuacji uruchamiać właściwe pro cedury, np. różnej „pracy ciała” podczas spaceru, biegania czy przeskakiwania kałuży. Anderson przeprowadził szereg badań, w których uzyskał potwierdzenie swojego modelu nabywania wiedzy. Badania te dotyczyły różnorodnych zjawisk, takich jak: abstrahowanie ukrytych reguł (Anderson, Kline, Beasley, 1979), rozwiązywanie problemów geometrycznych (Anderson i in., 1981) i przyswa janie języków. Koncepcja ACT radzi sobie dobrze z wieloma zjawiskami, wyjaśniając nawet typowe błędy pojawiające się w trakcie nabywania albo używania wiedzy proceduralnej. Anderson podaje wiele przykładów tego typu, jak stosowanie niewłaściwych reguł gramatycznych w trakcie nabywania języka (np. w celu wyrażenia czasu przeszłego w języku angielskim stosowanie przyrostka -ed do każdego czasownika) jako efekt generalizacji przy braku różnicowania.
166
Rozdział 4. Wiedza
Proceduralizacja może wiązać się z utratą wiedzy deklaratywnej, np. w przypadku pamiętania często wybieranego numeru telefonu4. Jego deklara tywne odtworzenie jest możliwe dopiero w trakcie wykonania czynności wy kręcenia albo wystukania numeru. Podobnie niektórym ludziom zdarza się zapomnieć jakąś zasadę ortograficzną, więc posiłkują się napisaniem słowa, ufając swojej wiedzy proceduralnej. Mechanizm nabywania wiedzy ujęty w ramach ACT ma jednak co najmniej jedną poważną wadę. Nie uwzględnia mianowicie sytuacji uczenia się bez instrukcji werbalnych, jak np. w nauce chodzenia, które niewątpliwie ma charakter proceduralny. Dziecko ucząc się chodzić, nie może skorzystać z instrukcji werbalnych, trudno bowiem zdeklaratywizować tę wiedzę proceduralną, a nawet gdyby było to możliwe, to dziecko i tak nie mogłoby jeszcze zrozumieć wydawanych poleceń.
4 .3.3. Nabywanie w iedzy niejawnej Z problemem nabywania wiedzy proceduralnej bez pośrednictwa wiedzy de klaratywnej lepiej radzą sobie koncepcje nabywania wiedzy niejawnej. W rozdz. 4.1.2 opisane zostały dwie grupy koncepcji, a zarazem dwie tradycje badania tego rodzaju wiedzy. Teraz przyjrzyjmy się temu, jak w ich ramach wyjaśniany jest proces nabywania wiedzy. Reber (1967) uznał, że wiedza niejawna nabywana jest na drodze uczenia się mimowolnego, rozumianego jako proces poznawczy, w wyniku którego jed nostka, niezależnie od świadomych intencji, nabywa wiedzy niejawnej na temat skomplikowanej struktury środowiska. Spośród definicyjnych cech uczenia się mimowolnego jedna dotyczy nabywania wiedzy, a mianowicie, że proces ten odbywa się niezależnie od świadomej kontroli ze strony jednostki (Reber, 1989), albo bez udziału wiedzy werbalnej o wszystkich nabywanych regułach (Underwood, Bright, 1996). W poznawczym modelu wiedzy ukrytej, według Sternberga i współpra cowników (2000), przewidziano dwie drogi nabywania wiedzy proceduralnej (zob. ryc. 4.10). Pierwsza podobna jest do mechanizmu proceduralizacji z teorii ACT Andersona. Polega na transformacji otrzymanej jawnej wiedzy o proce durach w „milczącą” wiedzę proceduralną. W kontekście zawodowym chodzi 0 rozmaite treningi, szkolenia czy coaching, w ramach których ćwiczone są pewne umiejętności. Wiedza ta zyskuje postać proceduralną, ale nabywana jest w sposób jawny i nie pochodzi z osobistego doświadczenia. Druga droga polega na niejawnym uczeniu się reguł proceduralnych. Wiedza ta ma postać niejawną 1 nabywana jest na podstawie osobistych doświadczeń. Ma też zdecydowanie praktyczny charakter. Wiedza ta zwykle nie podlega werbalizacji i deklaratywizacji, choć jest to możliwe. Najczęściej pozostaje ukryta, często z korzyścią dla szybkości i adekwatności jej użycia. Każda z tych dwóch ścieżek zasila w wiedzę odpowiednie magazyny pamięciowe. Pierwsza ścieżka, obejmująca otrzymaną wiedzę deklaratywną, wiąże się z angażowaniem pamięci semantycznej. Druga 4 W latach 80. XX w., kiedy Anderson publikował swój model, nie istniały telefony komórkowe z pamięcią, które obecnie niemal całkowicie wyeliminowały konieczność zapamiętywania numerów telefonów. Zapewniamy jednak, że przykład ten był wówczas trafny.
4.3. N abyw anie w iedzy
167
Ryc. 4.10. Schemat działania wiedzy ukrytej wg Sternberga (2000). Ścieżka A odpowiada nabywaniu wiedzy w wyniku osobistego doświadczenia. Ścieżka B dotyczy nabywania wiedzy w trakcie szkoleń. W obu przypadkach wiedza jest zapisywana w pamięci deklaratywnej (epizodycznej lub semantycznej). Ścieżka C odpowiada nabywaniu wiedzy proceduralnej w wyniku łącznego działania wiedzy otrzymanej i osobistego doświadczenia. Jest to najbardziej skuteczny sposób nabywania kompetencji zawodowych.
natomiast wiąże się z kodowaniem doświadczenia w pamięci epizodycznej. Ostatecznie na nasze zachowanie mogą mieć wpływ różne rodzaje wiedzy: jawna wiedza semantyczna i epizodyczna oraz niejawna wiedza proceduralna. Badania wykonane w zespołach Sternberga i Wagnera prowadzone były głównie w kontekście wiedzy zawodowej. Przykładowo Sternberg i współpra cownicy (1993) poddali badaniom eksperymentalnym proces nabywania wiedzy w grupie handlowców, dostarczając im różnych wskazówek wspomagających nabywanie wiedzy ukrytej. Osoby badane wcielały się w rolę menedżerów HR (zajmujących się zarządzaniem personelem). Pozostając w tej roli, na podstawie stenogramów rozmowy kwalifikacyjnej mieli ocenić trzech kandydatów na stanowisko handlowca. Pierwsza grupa otrzymywała wskazówki wspomagające selektywne kodowanie informacji. Dokonano tego, wyróżniając istotne informa cje w stenogramie i precyzując szczegółowo reguły rekrutacji. Wskazówki prze kazane drugiej grupie wspomagały z kolei selektywne łączenie informacji. Oprócz wyróżnienia istotnych elementów w stenogramie i sprecyzowania reguł rekrutacji, badani otrzymywali specjalne arkusze oceny, pozwalające na łączenie ze sobą istotnych informacji. Trzecia grupa otrzymywała wskazówki dotyczące selektywnego porównywania informacji. Ponownie inform acja istotna w stenogramie była wyróżniona, jeszcze raz sprecyzowano reguły rekrutacji, a dodatkowo osoby badane otrzymywały oceny kandydatów dokonane przez innych handlowców. Ponieważ zadanie oceny kandydatów było wykonywane pomiędzy pretestem i posttestem wiedzy ukrytej dotyczącej sprzedaży, w bada niach dodatkowo udział wzięły dwie grupy kontrolne. Pierwsza wykonywała dwukrotnie test wiedzy ukrytej bez zadania rekrutacyjnego („czysty” wpływ powtórzonego pomiaru); druga natomiast wykonywała zadanie rekrutacyjne, ale bez jakichkolwiek wskazówek. Okazało się, że wykonanie zadania rekrutacyj
168
Rozdział 4. W iedza
nego, nawet bez wskazówek, wpłynęło pozytywnie na przyrost wiedzy ukrytej: we wszystkich grupach był on większy niż w pierwszej grupie kontrolnej. Wska zówki dotyczące selektywnego kodowania i selektywnego łączenia najsilniej wpływały na przyrost wiedzy ukrytej. Nie stwierdzono natomiast istotnego wpły wu wskazówek dotyczących selektywnego porównywania. Wyniki te są istotne nie tylko w perspektywie nabywania wiedzy ukrytej, ale również tzw. inteligencji praktycznej. Wydaje się, że korzystanie z „podpowiedzi” innych osób (czyli ocen innych menedżerów HR) nie prowadzi do przyrostu wiedzy ukrytej najprawdo podobniej dlatego, iż nie wymaga głębokiego przetworzenia dostarczonych informacji. Pozostałe dwa rodzaje podpowiedzi, czyli jak selekcjonować i łączyć informacje, nie są gotowymi rozwiązaniami, ale - przy głębokim przetwarzaniu nie dość, że skutecznie pomagają osiągnąć cel (trafny wybór kandydata), to dodatkowo wspomagają nabywanie wiedzy niejawnej.
4.4. Wiedza ekspercka 4.4.1. Kryteria i w łaściw ości w iedzy eksperckiej Tym, co wyróżnia wiedzę ekspercką, jest rzecz jasna jej zakres w pewnej dome nie: ekspert posiada bardzo obszerną wiedzę, ale jest ona ograniczona do pewnej dziedziny. Arystoteles, autor dobrze znanego psychologom traktatu O duszy, zajmował się również medycyną, etyką, polityką, fizyką, matematyką i wieloma innymi dziedzinami wiedzy. W wielu z tych dziedzin niewątpliwie był eksper tem. Dziś, ze względu na gwałtowny przyrost szczegółowej wiedzy, trudno byłoby być ekspertem w całym obszarze choćby tylko jednej z tych dziedzin. Współcześni eksperci są wąsko wyspecjalizowani, a mimo to rzadko wnoszą do dorobku ludzkości cokolwiek, co mogłoby się równać z dokonaniami Arys totelesa. Nie tylko zatem zakres wiedzy decyduje o poziomie ekspertywności, jeśli uznać ekspertów również za innowatorów w swojej domenie. Obszerna wiedza może być nawet przeszkodą, np. w rozwiązywaniu problemów nie typowych lub nowych. Na przykład Einstein twierdził, że brak formalnego wykształcenia w zakresie fizyki ułatwił mu sformułowanie ogólnej teorii względ ności. Co zatem wyróżnia ekspertów? Chi, Glaser i Farr (1988) wyróżnili sie dem charakterystyk ekspertywności (expertise): 1. eksperci są najlepsi w swojej dziedzinie; 2. eksperci dostrzegają wzorce czy struktury charakterystyczne dla problemów specyficznych dla ich dziedziny; 3. eksperci są szybsi niż nowicjusze w zastosowaniu umiejętności (skills) z ich dziedziny, szybciej rozwiązują problemy, popełniając przy tym mniej błędów; 4. eksperci wykazują ponadprzeciętną sprawność pamięci krótko- i długotrwałej; 5. eksperci postrzegają i reprezentują problem z ich domeny na głębszym poziomie niż nowicjusze, którzy reprezentują problem na poziomie cech powierzchnio wych; 6. eksperci poświęcają więcej czasu niż nowicjusze jakościowej analizie problemu; 7. eksperci cechują się zdolnością refleksji nad własnymi działaniami (self-monitoring).
4.4. W iedza ekspercka
169
Z powyższych charakterystyk wiedzy dotyczą bezpośrednio punkty 2. i 4. Dostrzeganie wzorców czy struktur w otoczeniu (np. problemie) nie jest moż liwe bez głębokiej i obszernej wiedzy w danej dziedzinie. Wymaga jednak dodatkowego procesu zestawiania owych przechowywanych wzorców z sytuacją w otoczeniu. Z kolei pamięć jest „miejscem” przechowywania wiedzy, chociaż znajdują się w niej również informacje, których do wiedzy nie zaliczamy (np. efekty warunkowania i poprzedzania). Inne charakterystyki wiedzy eksperta dotyczą przede wszystkim sposobów reprezentowania i rozwiązywania prob lemów: poziomu reprezentacji problemu, jego analizy, efektywności poszuki wania rozwiązań i monitoringu tego procesu. Współcześnie częściowo pod ważono niektóre z przedstawionych charakterystyk wiedzy eksperta (por. Ro bertson, 2001), jednak nie na tyle, aby choćby jedną odrzucić. W tym miejscu zajmiemy się tym, co - poza zakresem - charakteryzuje i wyróżnia wiedzę eksperta. Pierwszą właściwością wyróżniającą wiedzę eksperta jest jej organizacja. Wiedza eksperta jest uporządkowana na wielu poziomach: od poziomu elementarnych składników wiedzy po jej wyabstrahowane struktury wyższego rzędu (np. Adelson, 1984). Struktura takiej wiedzy jest hierarchiczna w danej domenie (np. Chan, 1997), co daje ekspertowi znaczącą przewagę nad nowicju szami, szczególnie wówczas, gdy jej ścisłe uporządkowanie jest trudne bądź arbitralne. Zeitz (1997) twierdzi, że dominującym poziomem reprezentacji wie dzy ekspertów jest umiarkowanie abstrakcyjna reprezentacja pojęciowa (moderately abstract conceptual representation). Autor twierdzi, że zbyt abstrakcyjna reprezentacja wiedzy powodowałaby jej nikłą praktyczną użyteczność, bowiem ogólne reguły rzadko są możliwe do użycia bez ich dopasowania do konkretnej sytuacji. Na przykład mało praktyczna byłaby znajomość wzorów matematycz nych bez wiedzy o warunkach ich zastosowania. Z kolei wiedza zbyt konkretna (np. o setkach przypadków rozwiązania jakiegoś problemu dywergencyjnego) byłaby mało ekonomiczna i słabo podatna na transfer. Wyższy niż konkret ny poziom organizacji wiedzy pozwala na znaczną elastyczność działania. Koedinger i Anderson (1990) wykazali, że eksperci w rozwiązywaniu prob lemów w zakresie geometrii nie posługują się konkretnym algorytmem, ale bardziej abstrakcyjnym planem (heurystyką) działania. Dzięki temu mogą np. pominąć pewne etapy przewidziane w algorytmie. Uporządkowanie wiedzy na różnych poziomach abstrakcji pozwala na niezwykle szybki dostęp do niej. Jeśli zadanie tego wymaga, eksperci operują na poziomie detali, a innym razem - na poziomie ogólnych zasad i reguł działania. Elastyczny i szybki dostęp do wiedzy niewątpliwie wspomaga rozwiązywanie zarówno rutynowych, jak i nowych problemów. Jest jeszcze jedna zaleta „upakowania” wiedzy na różnych poziomach ogólności. Przywołanie i przetwarzanie zbyt wielu elementów wiedzy wiązałoby się niewątpliwie z przeciążeniem mało pojemnej pamięci roboczej. W takiej sytuacji użycie informacji w bardziej abstrakcyjnej formie (na wyższym pozio mie organizacji) pozwala te ograniczenia ominąć. Dlatego eksperci wykonują szybko i sprawnie zadania, które laikom wydają się niewykonalne, np. w ciągu kilku sekund zapamiętują układ wielu figur na szachownicy. Badania nad ekspertami szachowymi należą już do klasyki psychologii. Zapoczątkowali je Chase i Simon (1973a, 1973b), badając organizację wiedzy w pamięci ekspertów
170
Rozdział 4. W iedza
i laików. Obu grupom prezentowano układ figur na szachownicy. Układ ten był albo zupełnie losowy, albo pochodził z rzeczywistej rozgrywki. Okazało się, że w pierwszym warunku poziom odpamiętania zaprezentowanego układu nie różnił się istotnie w obu grupach. Eksperci i laicy odtwarzali poprawnie nie więcej niż kilka pozycji układu. Jednak w drugim warunku poziom odpamię tania układu na szachownicy znacznie się różnił w obu grupach: eksperci odtwarzali prawidłowo więcej pozycji figur niż laicy. W badaniach DeGroota (1965) okazało się, że różnice w tego rodzaju zadaniu występują również między mistrzami i „zwykłymi” ekspertami szachowymi. Ci pierwsi poprawnie rekonstruowali układ figur na szachownicy w 91%, podczas gdy „zwykli” eksperci osiągnęli 41% poprawności. Wyniki te wskazują na dwie istotne właściwości funkcjonowania poznaw czego ekspertów. Po pierwsze, łatwość odtwarzania sensownych układów figur na szachownicy wskazuje na większą, ale też gotową do elastycznego wy korzystania wiedzę ekspertów. Chase i Simon tłumaczyli przewagę ekspertów w tym warunku pamiętaniem układów pochodzących z wielu partii szachowych. Wiedza ta pozwalała im na kodowanie prezentowanych układów, bądź ich części, jako zintegrowanych całości. W przypadku układów losowych wiedza ta była jednak bezużyteczna. Po drugie, brak różnic między ekspertami i laikami w tym właśnie warunku wskazuje na brak szczególnych predyspozycji pamięci roboczej, których można było spodziewać się wśród ekspertów. Ich pamięć wydaje się funkcjonować podobnie jak u laików, a przewaga w jej wykorzys taniu wynika z innej organizacji informacji kodowanej i przechowywanej w WM. Gobet i Simon (1996a, 1996b, 1996c), korzystając m.in. z powyższej metody, poddali serii badań mistrzów szachowych. Stwierdzili (Gobet, Simon, 1996a), że mistrzowie mogą odtworzyć do dziewięciu partii z 70-procentową poprawnością (ok. 160 pozycji figur). Niewątpliwie wyniku tego nie można wyjaśnić, odwołując się wyłącznie do mechanizmów pamięci roboczej. Autorzy zasugerowali, że eksperci korzystają w swojej dziedzinie z szablonów zawartych w pamięci długotrwałej, które pozwalają na kodowanie i przechowywanie in formacji. Ericsson i Kintsch (1995) zaproponowali nawet szerszą koncepcję tzw. długotrwałej pamięci roboczej (long-term working memory) powiązanej z efek tywnością pamięci i poziomem ekspertywności (zob. rozdz. 8.2.5). Według autorów eksperci przechowują napływające informacje związane z ich domeną raczej w pamięci długotrwałej niż krótkotrwałej. Mechanizm tego zjawiska opiera się na powiązaniu napływającej informacji z zestawem wskazówek wy dobycia, które wspólnie tworzą tzw. strukturę wydobycia (retrieval structure). Aktywacja wskazówek wydobycia powoduje przynajmniej częściowe odtwo rzenie oryginalnych warunków kodowania. W ten sposób obszerny materiał może zostać wydobyty, jednak jest to możliwe wtedy, gdy osoba posiada wiedzę ekspercką w zakresie kodowanego materiału i materiał ten jest jej dobrze znany. Wydaje się zatem, że pamięć ekspertów funkcjonuje najzupełniej przeciętnie poza ich domeną, mimo to w obrębie ich specjalizacji wykazuje ponadprzeciętną sprawność (Chi, Glaser, Farr, 1988). Jej źródła nie tkwią jednak w formalnych mechanizmach funkcjonowania systemów pamięci, lecz w efektywności ich wykorzystania wynikającej z zakresu i organizacji wiedzy eksperckiej. Drugim czynnikiem wyróżniającym wiedzę ekspercką jest stopień jej proceduralizacji. Czynnik ten jest oczywisty u ekspertów takich jak mechanicy
4.4. Wiedza ekspercka
171
samochodowi, którzy muszą wiedzieć, gdzie posłuchać, aby usłyszeć, i gdzie posmarować, aby auto pojechało. Ich wiedza ma głównie proceduralny cha rakter, jednak z jej nabywaniem, jak go rozumie Anderson w ACT, nie ma utraty dostępu do wiedzy deklaratywnej. Dzięki temu rośnie sprawność wykonania procedur przy utrzymaniu zdolności ich werbalizacji (niezbędne w rozmowie z klientem warsztatu, jak również w przekazywaniu wiedzy młodszym kole gom). Proceduralizacja charakteryzuje również inne rodzaje wiedzy eksperckiej, np. filozoficznej. Dowodzenie twierdzeń, retoryka, selektywne i krytyczne czytanie tekstów innych autorów i pisanie własnych - to czynności umysłowe w dużej mierze sprowadzające się do posiadania i sprawnej realizacji złożonych procedur. Pisząc o procedurach, mamy na myśli wiedzę nabytą dwoma spo sobami: dzięki proceduralizacji w rozumieniu Andersona i z doświadczenia w rozumieniu Sternberga. W pierwszym przypadku wiedza ta wywodzi się z wiedzy deklaratywnej, a jej nabywanie wymaga stopniowego przekształcania jednej wiedzy w drugą. Droga druga nie wymaga gromadzenia wiedzy de klaratywnej, a już na pewno nie jest ona konieczna do nabywania procedur. Trzecim czynnikiem charakterystycznym dla wiedzy eksperckiej są sche maty rozwiązywania problemów specyficznych dla danej dziedziny wiedzy. Przyjmuje się, że schematy zawierają abstrakcyjną wiedzę pozbawioną kon tekstu, w którym została ona pozyskana (por. Roberts, 2001). Dzięki temu schematy stosunkowo łatwo podlegają transferowi pomiędzy różnymi kontek stami. Z kolei Leake (1998) twierdzi, że schematy to gotowe sposoby rozu mowania opartego na przypadkach (case-based reasoning). Ich stosowanie wymaga zgromadzenia wiedzy dotyczącej skutecznych rozwiązań konkretnych problemów wraz z heurystykami, które do nich prowadzą (por. Anderson, 1982). Wiedza ta jest zestawiana z właściwościami bieżącego problemu, a po stwierdzeniu ich dopasowania do któregoś z posiadanych schematów, schemat ten jest aplikowany. Jeszcze węższe rozumienie schematów proponują Cheng i Holyoak (1995), twierdząc, że eksperci stosują tzw. pragmatyczne schematy wnioskowania. Są one ograniczone do konkretnych typów problemów, dlatego też z trudem poddają się generalizacji. Ich zaletą jest szybkość aplikacji w konkretnej sytuacji, nie wymagają bowiem opracowania strategii działania na podstawie abstrakcyjnych reguł. Zamiast tego stosowany jest konkretny przepis, wcześniej wielokrotnie sprawdzony. Dobrze znany efekt eksperta, polegający na większej sztywności ekspertów w rozwiązywaniu nierutynowych problemów, wskazywałby jednak na bardziej konkretny poziom reprezentacji schematów. Gdyby były one abstrakcyjne, eks pert musiałby każdorazowo odnieść dany schemat do kontekstu i wypracować konkretny sposób jego aplikacji. W tej sytuacji eksperci byliby zawsze bardziej efektywni i elastyczni niż laicy. Ci ostatni, nie posiadając abstrakcyjnych sche matów, mogliby ewentualnie korzystać z wiedzy ogólnej (co oznacza niską efek tywność) albo z konkretnych przyldadów z danej dziedziny (co wiąże się z niską elastycznością). Jednak tak nie jest, bowiem eksperci popełniają niekiedy nawet więcej błędów w swojej domenie niż nowicjusze (Frensch, Sternberg, 1989; Reason, 1990). Frensch i Sternberg uważają, że źródłem tego efektu jest zjawisko automatyzacji. Automatyzacja prowadzi do uwolnienia zasobów systemu poznawczego. Wiedza zostaje „skompilowana” i - jak w modelu ACT Andersona (1987) - przestaje być dostępna świadomości. Rozpoznanie problemu jako
172
Rozdział 4. W iedza
rutynowego powoduje uruchomienie skompilowanych schematów działania reali zowanych przy braku kontroli. Jeśli jednak rozpoznanie to jest błędne, tj. kiedy problem różni się od rutynowego, działanie eksperta nie będzie do niego dopa sowane. To z kolei może prowadzić do błędów albo usztywnienia się w próbach bezskutecznego stosowania niedopasowanych schematów. Dopiero redefinicja problemu jako nowego powoduje podjęcie prób wytworzenia nowego schematu. Z kolei w problemach rutynowych eksperci wykazują większą niż no wicjusze elastyczność (np. Feltovitch i in., 1984; zob. ramka 4.1). Polega ona na zdecydowanie lepszym niż u nowicjuszy dopasowaniu danych sytuacyjnych do posiadanych schematów poznawczych. Oznacza to zwykle bardziej trafną kate goryzację problemów, a co za tym idzie zastosowanie odpowiednich strategii ich rozwiązywania. Zauważmy, że w przypadku problemów nierutynowych ten sam mechanizm może wyjaśniać omawiany powyżej efekt eksperta. Nieprawidłowa kategoryzacja problemu prowadzi do zastosowania niewłaściwej strategii. Ekspert, dysponując wielkim bogactwem sposobów kategoryzacji, może wielokrotnie wpadać w pułapkę „rutyny”. Będzie wówczas próbował wciąż innych, ale zawsze nieskutecznych sposobów działania, zanim dostrzeże - jeśli w ogóle to się stanie - że problem nie jest jednak rutynowy, zatem wymaga myślenia twórczego, a nie odtwórczego. Chi, Glaser i Rees (1982) twierdzą, że elastyczność w rozwiązywaniu problemów, które są rutynowe, wynika z większej liczby bardziej wyspecjalizowanych schematów poznawczych (czyli wiedzy proceduralnej), którymi dysponują eksperci. Ramka 4.1
Elastyczność wiedzy ekspertów Współczesne badania nad ekspertami koncentrują się nie tylko na szachistach. Eksperywność bada się w wielu różnych domenach, np. w medycynie (Feltovitch i in., 1984; Lesgold i in., 1988), fizyce (Chi, Feltovitch, Glaser, 1981), informatyce (McKeithen i in., 1981). Feltovitch i współpracownicy (1984) przedstawili lekarzom - ekspertom i no wicjuszom - problem diagnostyczny w postaci listy symptomów. Symptomy zostały tak dobrane, że łatwo mogły prowadzić do błędnej diagnozy. Nowicjusze częściej niż eksperci stawiali wówczas błędną diagnozę. Ponadto w większym stopniu opierali się na otrzymanej liście, nie uwzględniając dodatkowego źródła informacji wywiadu z pacjentem. Eksperci, dostrzegając możliwość błędnej diagnozy, opartej na symptomach, poszukiwali dodatkowych informacji, które pozwoliłyby im kolejno odrzucać alternatywne hipotezy. Autorzy (zob. też Feltovitch, Spiro, Couson, 1997) wyjaśniają te rezultaty lepszą organizacją i większa elastycznością wiedzy ekspertów w porównaniu z wiedzą laików. Elastyczność wynika w tym wypadku z większego bogactwa i zróżnicowania schematów poznawczych (por. Chi, Glaser, Rees, 1982) stosowanych w odniesieniu do diagnozy medycznej. Dzięki nim możliwe jest precyzyjne rozróżnianie chorób na podstawie większej liczby wska zówek branych pod uwagę w podejmowaniu decyzji. Eksperci medyczni wykazują również szczególną wrażliwość na dane, które nie pasują do schematu, co wydaje się wskazywać raczej na przyjmowanie strategii falsyfikacji niż konfirmacji hipotez (zob. rozdz. 10.6.2).
4.4. W iedza ekspercka
173
Podobne wnioski płyną z badań Lesgolda (Lesgold i in., 1988), w których udział I wzięli eksperci w zakresie radiologii. Zaprezentowano im zdjęcia rentgenowskie pacjenta, któremu przed dziesięciu laty usunięto fragment płuca. W efekcie przesuI nięciu uległy inne organy wewnętrzne. Początkowo eksperci postawili hipotezę „zaj paści płuca”, odnajdując na zdjęciu zarówno informacje zgodne z nią, jak i sprzeczne. J Następnie przyjęli hipotezę „usunięcia fragmentu płuca”, którą testowali tak jak | hipotezę pierwszą. Na podstawie szczegółowej analizy protokołów werbalnych auto-) rzy sformułowali model opisujący przebieg procesu formułowania diagnozy w grupie | badanych przez nich ekspertów. Początkową jego fazą byłoby budowanie umysłowej t reprezentacji sytuacji. Każdemu z możliwych wariantów diagnozy odpowiada I specyficzny „pretest”, który musi być pozytywny, aby dalej szczegółowo analizować daną możliwość. W języku teorii modeli mentalnych (zob. rozdz. 10.7.2) można by | powiedzieć, że dla każdego wariantu diagnozy budowany jest odrębny model umysłowy. Ponieważ tylko jeden z nich może być właściwy, w dalszych fazach poi szukuje się informacji zgodnych i niezgodnych z każdym z nich. Różnym wariantom, które przejdą fazę „pretestu”, opowiadają schematy diagnozy, które wymagają i sprawdzenia większej bądź mniejszej liczby hipotez. Są one stosowane aż do mo mentu, kiedy wszystkie alternatywne warianty, poza jednym, zostaną odrzucone.
Wydaje się zatem, że wiedza ekspertów różni się od wiedzy laików nie tylko „ilościowo” (np. większy zakres wiedzy, wyższy stopień proceduralizacji), lecz również „jakościowo” (np. inna organizacja wiedzy, wyspecjalizowanie schema tów poznawczych). Jakościowo odmienne są również sposoby korzystania z tej wiedzy, zapewniające wysoką skuteczność przy zachowaniu elastyczności roz wiązywania problemów w dziedzinie specjalizacji (np. przyjmowanie strategii falsyfikacji, a nie konfirmacji hipotez, zob. rozdz. 10.6.2).
4.4.2. Nabywanie w iedzy eksperckiej Interesujące wyjaśnienie mechanizmu nabywania wiedzy eksperckiej zapropono wał Glaser (1996). Jego model obejmuje trzy stadia nabywania wiedzy eksperc kiej: etap wsparcia zewnętrznego (external support), etap przejściowy (trans itional) i etap samoregulacji (self-regulatory). W pierwszym etapie nowicjusz otrzymuje wsparcie od osób posiadających obszerną wiedzę, którymi mogą być rodzice, nauczyciele czy mistrz. Oni pomagają w uporządkowaniu wiedzy o oto czeniu (czy domenie), w ten sposób wspomagając jej nabywanie. Zbudowane tą metodą „rusztowanie” (scaffolding) jest w etapie przejściowym stopniowo wypełniane treścią. Początkujący ekspert rozwija umiejętności monitorowania i regulacji własnych czynności oraz identyfikuje kryteria coraz wyższego poziomu wykonywania zadań w danej dziedzinie. W ostatnim etapie ekspert zyskuje pełną kontrolę nad procesem nabywania wiedzy i wykonywaniem różnych zadań w obrębie danej domeny. Nie wyklucza to jednak dalszego udziału innych osób albo korzystania z różnych źródeł informacji, jeśli ekspert zidentyfikuje luki lub uproszczenia w posiadanej wiedzy i umiejętnościach. Jednak istotą ekspertywności jest samoregulacja w zakresie korzystania z wiedzy i umiejętności oraz dalszego ich doskonalenia.
174
Rozdział 4. W iedza
Inny model nabywania wiedzy eksperckiej zaproponowali Schaumacher i Czerwiński (1992). Model ten odnosi się do budowania reprezentacji złożonych systemów, jak systemy komputerowe. Autorzy również ujmują nabywanie ekspertywności jako proces składający się z trzech faz. Pierwsza - przedteoretyczna (pretheoretical) - angażuje wydobywanie przykładów z pamięci opartych na powierzchniowym podobieństwie cech danej sytuacji i tych przywołań. Dzięki skorelowaniu cech powierzchniowych i głębokich, możliwe staje się odkrycie związków przyczynowych obowiązujących w systemie. Na tym polega druga doświadczeniowa (experiental) - faza nabywania wiedzy eksperckiej. W tej fazie pojawiają się abstrakcyjne reprezentacje wiedzy, pochodzące z doświadczenia dotyczącego wielu przykładów. W ostatniej - eksperckiej (expert) - fazie możliwe jest dokonywanie abstrakcji na jeszcze wyższym poziomie. Chodzi o wiedzę pochodzącą z różnych systemów. Dopiero na tym poziomie można mówić o możliwości transferu wiedzy, np. na działanie nowego systemu, bowiem wy abstrahowane reguły powinny obowiązywać w każdym z nich.
4.5. Podsumowanie Nie może być sensownej teorii umysłu ludzkiego bez dobrze opracowanej teorii wiedzy. Wiedza to sama istota naszego poznawczego wyposażenia. Bez niej nie możliwe jest zrozumienie czegokolwiek, a zmaganie się ze skomplikowanymi problemami byłoby bardzo utrudnione, jeśli w ogóle możliwe. Wiele zadań poz nawczych wymaga po prostu konkretnej wiedzy. W badaniach nad uwagą (zob. rozdz. 5) lub kontrolą poznawczą (zob. rozdz. 6) podkreśla się, że czynności poznawcze są limitowane zasobami, czyli możliwościami przetwarzania informa cji, pojemnością pamięci roboczej i innymi „wąskimi gardłami” systemu poznaw czego. To wszystko prawda, ale podkreślając rolę i znaczenie rozmaicie rozu mianych i definiowanych zasobów poznawczych, nie powinno się ignorować faktu, że czynności poznawcze mogą być „limitowane danymi”. Jeśli ktoś nie wie, jakim słowem określa się brata matki w języku fińskim, może zaangażować dowolnie dużo zasobów poznawczych, a i tak nie znajdzie odpowiedniego wyrazu. Z tego punktu widzenia wiedza jest bardzo szczególnym zasobem poznawczym, zdolnym do zastąpienia tych zasobów, które w danym momencie mogą być wyczerpane. Psychologiczne badania nad nabywaniem wiedzy i korzystaniem z niej napotykają istotną trudność, jaką jest jej treść. Psycholog może tworzyć ogólne koncepcje wiedzy tylko wtedy, gdy zajmuje się stroną formalną, np. organizacją wiedzy lub jej rodzajami, ale nie jest w stanie stworzyć ogólnej teorii tego, jaka jest treść badanej przez niego wiedzy. Inaczej mówiąc, psychologiczne kon cepcje wiedzy są zdolne do formułowania tez na temat tego, JAK ludzie coś wiedzą, ale nie bardzo sobie radzą z kwestią, CO ludzie wiedzą. Każdy z nas wie o świecie co innego, dlatego koncepcje odwołujące się do treści wiedzy nie uchronnie zmieniają swój charakter z nomotetycznych na idiograficzne. A to dla psychologa zorientowanego na prowadzenie badań eksperymentalnych jest zmianą trudną do zaakceptowania. Przyszłe koncepcje i badania nad wiedzą będą musiały w jakiś sposób zlikwidować napięcie między formą i treścią tego, co każdy z nas wie o świecie i samym sobie.
Rozdział
Uwaga i świadomość
Istota i aspekty uwagi Teorie uwagi
178
Uwaga, percepcja i (nie)świadomość Analiza wskazówek peryferycznych
186
Teorie selekcji źródła informacji
187
Teorie przeszukiwania pola percepcyj nego 195 Teorie przedłużonej koncentracji Teorie podzielności Teorie przerzutności
209 217
200
Reakcje na informacje odrzucane Poprzedzanie podprogowe Podsumowanie
228
225
221 223 224
Uwaga to system odpowiedzialny za selekcję informacji i zapobieganie ne gatywnym skutkom przeładowania systemu poznawczego przez nadmiar danych. Świadomość to zdawanie sobie przez podmiot sprawy z treści własnych pro cesów psychicznych, np. z tego, co jest przedmiotem spostrzegania, myślenia lub doznań emocjonalnych. Według Williama Jamesa (1890, s. 403-404), „każdy wie, czym jest uwaga: jest to posiadanie przez umysł w jasnej i żywej postaci jednego z wielu jednocześnie ujmowanych przedmiotów lub ciągów myśli”. W tej pięknej, introspekcyjnej definicji zawierają się trzy prawdy. Po pierwsze, istotą i sensem działania uwagi jest selekcja, czyli wybór jednego obiektu percepcji, jednego źródła stymulacji lub jednego tematu myślenia spośród wielu możliwych opcji. Po drugie, selekcja realizowana przez uwagę dotyczy w równym stopniu spostrzegania, jak też „wyższych” procesów poznawczych, przede wszystkim myślenia. Dzięki selekcji na wejściu sensorycznym możemy skupić się na jednym bodźcu lub źródle stymulacji kosztem innych, a dzięki selekcji w odniesieniu do „wyższych” pięter przetwarzania informacji możemy kontrolować przebieg procesów intelektual nych. Po trzecie, uwaga ściśle wiąże się ze świadomością, czyli ze zdawaniem sobie sprawy z tego, co spostrzegamy lub o czym myślimy. Dziś wiemy, że świadomość nie jest tożsama z uwagą, ale zawsze stanowi wynik jej działania. Na peryferiach uwagi znajdują się czasem bodźce, z których zdajemy sobie sprawę słabo lub w ogóle, ale jeśli coś jest przedmiotem świadomego doznania, musiało być wcześniej poddane skutecznej i bardzo surowej selekcji ze strony uwagi.
5.1. Istota i aspekty uwagi Istnienie uwagi wynika z ograniczonych możliwości przetwarzania informacji przez umysł ludzki (Duncan, Humphreys, 1989). Efektywne funkcjonowanie systemu poznawczego jest możliwe w zasadzie tylko wtedy, gdy w tym samym czasie analizujemy jedynie niewielkie ilości informacji (Lehrl, Fischer, 1988). Jeśli skuteczne przetwarzanie informacji jest tak surowo limitowane, konieczne wydaje się istnienie jakiegoś mechanizmu pozwalającego na wybór informacji istotnych dla dalszego przetwarzania. Mechanizm taki umożliwia koncentro wanie się na pewnych sygnałach czy też zadaniach oraz odrzucanie bodźców nieistotnych lub zakłócających. Istnienie takiego mechanizmu wydaje się niezbędne również ze względu na konieczność przystosowania się organizmów żywych do wymagań środowiska (Broadbent, 1958). Aby zwiększyć swoją szansę przetrwania w trudnych warunkach środowiska, organizm musi wyłowić wśród szumu informacyjnego bodźce, które sygnalizują coś ważnego, np. zagrożenie lub szansę zdobycia pożywienia. Ten hipotetyczny mechanizm, będący odpowiedzią ewolucji naturalnej na ograniczone możliwości przetwa rzania informacji, został nazwany uwagą (James, 1890). Funkcją stanowiącą o jego istocie jest selektywność. Zgodnie z definicją Johnstona i Dark (1986)
5.1. Isto ta i asp ek ty uw agi
179
termin „selektywność” odnosi się do zróżnicowanego przetwarzania informacji pochodzących z wielu różnych źródeł. Selektywność uwagi dokonuje się w różnych warunkach zadania. To zróż nicowanie pozwala wyróżnić kilka podstawowych aspektów funkcjonowania uwagi. Pierwszy z nich (Broadbent, 1957) dotyczy problemu selekcji źródła informacji: kiedy, gdzie i w jaki sposób odbywa się proces wyboru bodźców ważnych (sygnały) ze względu na przyjętą zasadę selekcji, przy jednoczesnym odrzuceniu informacji nieważnych (szum) i zakłócających (dystraktory). Wybór źródła stymulacji dokonuje się np. wtedy, gdy osoba pogrążona w lekturze ignoruje toczącą się w tym samym pomieszczeniu rozmowę, a zwłaszcza tzw. tło dźwiękowe (odgłosy ruchu ulicznego, bzyczenie owadów itp.). Tę formę selektywności badano początkowo wyłącznie w odniesieniu do uwagi słucho wej, prezentując osobie badanej do dwojga uszu dwa niepowiązane komunikaty (Broadbent, 1957; Cherry, 1953; Deutsch, Deutsch, 1963; Treisman, 1960). Osoba ta musi skupić się na jednym z tych komunikatów, ignorując drugi. Można wówczas obserwować, czy badany słyszy cokolwiek w tzw. kanale ignorowanym (paradygmat 5.1). Później pojawiły się analogiczne badania w od niesieniu do uwagi wzrokowej, w których to eksperymentach uczestnikom wyświetlano jednocześnie dwa różne filmy, np. mecz koszykówki i sceny z życia rodzinnego (Mack, Rock, 1998; Mack i in., 1992; Rock i in., 1992). Użycie takiej procedury pozwala sprawdzić, który z dwóch konkurencyjnych filmów osoba badana rzeczywiście zobaczy, a przede wszystkim - czy dotrze do niej cokolwiek z filmu z konieczności zignorowanego. Przeprowadzono też badania, w których niepowiązane komunikaty prezentowano uczestnikom do różnych modalności zmysłowych, np. wzrokowo i słuchowo (Allport, 1980a; Allport, Antonis, Rey nolds, 1972; Bernstein, 1970; McLeod, 1977). Wyniki tych badań zostaną omó wione w związku z prezentacją teorii filtra (bramki) i teorii modułów. Selekcję źródła informacji często uznawano za podstawowe, a nawet wyłączne zadanie uwagi selektywnej (Allport, 1992). Wydaje się jednak, że i w przypadku po zostałych aspektów uwagi jej głównym zadaniem jest selektywność, choć nie w zakresie wyboru źródła stymulacji, lecz w odniesieniu do innych czynności poznawczych. Paradygmat 5.1
Dychotyczna prezentacja bodźców i metoda podążania : Czy uczestnicząc w gwarnym przyjęciu możemy skoncentrować się na rozmowie z jednym z naszych przyjaciół? Jeśli możemy, to czy odbywa się to kosztem cał; kowitego „wyłączenia” słów, wypowiadanych przez innych uczestników przyjęcia, nawet jeśli mówią wystarczająco głośno i nie są od nas bardzo oddaleni? Dlaczego, gdy ktoś w innej niż prowadzona przez nas rozmowie wymieni nasze imię, \ natychmiast tracimy wątek konwersacji i automatycznie „przełączamy się” na to, co I; się dzieje w rozmowie dotąd ignorowanej? Cherry (1953) przeniósł sytuację komuJ nikacyjną z gwarnego przyjęcia wprost do laboratorium w stopniu, w jakim było to i technicznie wykonalne. Interesujący go problem ograniczeń w selektywności in: formacji nazwał, zgodnie z inspirującymi go obserwacjami, problemem przyjęcia l towarzyskiego (cocktail party problem). Osoba badana w zaprojektowanych przez
180
Rozdział 5. Uwaga i świadom ość
niego eksperymentach odbierała dwa różne przekazy jednocześnie - po jednym do każdego ucha - z zadaniem skupienia się na jednym z nich, przy jednoczesnym całkowitym ignorowaniu drugiego komunikatu. Następnie proszono uczestnika eksperymentu o zanotowanie treści przekazu, na którym miał się skupić. Pytano także o treści, które pojawiły się w komunikacie ignorowanym. Cherry wykazał, iż badani nie mieli większych problemów z wiernym odtworzeniem ważnego komunikatu, ale nie mogli odpowiedzieć na jakiekolwiek pytania o treść drugiego ; przekazu. Nie byli też w stanie zidentyfikować języka (angielski bądź francuski), l w którym przekaz ignorowany był formułowany. Zgodnie z przyjętą konwencją J językową, zjawisko to nazwano efektem przyjęcia towarzyskiego (cocktail i party phenomenon). W przeciwieństwie do semantycznych, treściowych aspektów | komunikatu ignorowanego, które nie były w ogóle dopuszczane do dalszego przetwarzania, pewne fizyczne parametry tego przekazu, jak np. zmiana brzmienia j (tonu) wymowy, czy też zmiana płci spikera, były przez osoby badane rejestrowane. Cherry’ego uważa się za twórcę paradygmatu dychotycznej prezentacji bodźców - techniki eksperymentalnej polegającej na jednoczesnym prezentowa| niu dwóch różnych komunikatów akustycznych osobno do każdego ucha. 1 Broadbent (1954), a później Moray (1959) i Treisman (1960) rozwinęli i zmodyfikowali tę technikę, prosząc badanych nie o zapamiętywanie „oficjalnego” przekazu, ale o jego wierne powtarzanie. Osoba badana miała podążać za jednym z komunikatów jak cień, stąd nazwa tej techniki - podążanie (shadowing). Ta zmiana | w procedurze zapewnia lepszą kontrolę zachowania uczestników badania. Można i dzięki niej jednoznacznie stwierdzić, czy badany rzeczywiście podąża „jak cień” za wskazanym przekazem, czy też próbuje dzielić swoją uwagę między dwa ; jednoczesne komunikaty. Każde odstępstwo od reguły dosłownego powtarzania (np. chwilowe zamilknięcie, zająknięcie, wtręty ze strony komunikatu ignorowa nego) świadczy o próbie dzielenia uwagi na dwa wykluczające się przekazy. Paradygmat podążania stosowano także w badaniach uwagi podzielnej (Allport, Antonis, Reynolds, 1972; Ninjo, Kahneman,, 1974) z instrukcją jednoczesnego śledzenia dwóch jednakowo ważnych komunikatów.
Drugim ważnym aspektem -uwagi selektywnej jest jej zdolność do prze szukiwania pola percepcyjnego. Na przykład na wydruku komputerowym należy zaznaczyć markerem wszystkie słowa zaczynające się na literę „m” (zasada se lekcji), pozostawiając nietknięte inne słowa (szum), zwłaszcza te, które zaczynają się na podobnie wyglądającą literę „n” (dystraktory). Zdaniem nie których badaczy (Cave, Wolfe, 1990; Treisman, 1988, 1993; Treisman, Gelade, 1980), przeszukiwanie pola percepcyjnego dokonuje się zgodnie z mechanizmem automatycznego kodowania cech i selektywnej integracji właściwości poszuki wanego obiektu w postać, będącą sumą czy też złożeniem tych charakterystyk. Tę formę selektywności badano wyłącznie w odniesieniu do uwagi wizualnej (paradygmat 5.2), a prowadzone eksperymenty miały na celu przede wszystkim wskazanie tzw. cech priorytetowych, automatycznie przyciągających uwagę w polu wzrokowym. Wśród charakterystyk tego typu wyróżniono np. ruch obiektów w polu wzrokowym (Driver, Baylis, 1989; Driver, McLeod, 1992; McLeod, Driver, Crisp, 1988; McLeod i in., 1991) czy wyróżniający się kolor
5.1. Isto ta i asp ek ty uw agi
181
(D’Zamura, 1991; Kyllingsbek, Bundesen, 2001; Treisman, Viera, Hayes, 1992). Łatwiej nam znaleźć wśród nieruchomych obiektów coś, co się rusza, podobnie jak łatwo zauważyć obiekt czerwony wśród samych białych. Wyniki tych ba dań zostaną dokładniej omówione przy okazji prezentacji teorii integracji cech w obiekt. Paradygmat 5.2
Badanie przeszukiwania pola wzrokowego
J [ | i
I
\ I
f j Í i ;
:
Í
| i j
i Dlaczego mimo bałaganu na stole pewne obiekty odnajdujemy łatwo (wręcz narzucają się nam swoim wyglądem), a innych nie potrafimy zauważyć nawet w wyniku długich poszukiwań (jesteśmy na nie „ślepi uwagowo”)? Treisman i Gelade (1980) postanowiły zbadać proces przeszukiwania pola wzrokowego. W ich eksperymencie badani poszukiwali obiektów zdefiniowanych przez pojedynczą cechę (np. kolor: „znajdź zieloną figurę”) lub przez koniunkcję cech (np. kolor i położenie: „znajdź zieloną figurę zorientowaną poziomo”). Pierwszy typ przeszukiwania pola percepcyjnego nazwano prostym, zaś drugi - koniunkcyjnym. Treisman i Gelade wykazały, że przeszukiwanie koniunkcyjne trwa dłużej niż przeszukiwanie proste, a ponadto jest zależne od liczby elementów przeszukiwanego zestawu. Przeszukiwanie koniunkcyjne ma więc charakter procesu szerego wego, podczas gdy przeszukiwanie proste dokonuje się raczej równolegle, ponieważ czas reakcji w przeszukiwaniu prostym nie zależy od liczby elementów w polu percepcyjnym. W paradygmacie przeszukiwania pola wzrokowego cechy definiujące poszukiwane obiekty mają postać właściwości sensorycznych, Próbując ustalić, które z właściwości obiektów mają charakter cech priorytetowych, | przetwarzanych jako pierwsze w kolejności, badano poszukiwanie koniunkcyjne z udziałem m.in. takich cech, jak: ruch (McLeod, Driver, 1993), kolor (D’Zamura, 1991), głębia (Julesz, Bergen, 1983), czy położenie przestrzenne (Treisman, 1988). Stwierdzono, że podczas gdy ruch jest właściwością priorytetową niezależnie od jego fizycznej charakterystyki (szybkość, kierunek), to statyczne położenie przestrzenne (np. horyzontalne, wertykalne) taką właściwością nie jest. Ustalono również, że kolor i głębia mogą być warunkowo cechami priorytetowymi, jeśli są wystarczająco wyraziste percepcyjnie (visual salience, inaczej: dystynktywne, np. rudy kolor włosów). Manipulowano także liczbą cech w poszukiwanej koniunkcji (Cave, Wolfe, 1990), ich wyrazistością (Yantis, Hillstrom, 1994), a także liczbą cech wspólnych dla sygnałów i dystraktorów (Duncan, Humphreys, 1989). Okazało się, że poszukiwa nie obiektu stanowiącego koniunkcję licznych właściwości niepriorytetowych może również być równoległe i szybkie, a bardzo wyrazista cecha niepriorytetowa może w większym stopniu przyciągać uwagę niż cecha priorytetowa (np. dystraktor o dystynktywnym kolorze powoduje spowolnienie procesu detekcji ruchomego sygnału). Stwierdzono też, że im bardziej podobne do siebie są bodźce zakłócające i celowe, tym dłużej trwa proces detekcji poszukiwanego sygnału i tym większe jest w takim przypadku prawdopodobieństwo szeregowości mechanizmów selekcji ; informacji. Początkowo w badaniach prowadzonych w tym paradygmacie osobom bada nym prezentowano jednocześnie cały dostępny zbiór obiektów do selekcji. Obec-
182
Rozdział 5. Uwaga i świadom ość
nie prowadzi się badania, w których sygnał lub dystraktor pojawia się w polu percepcyjnym nagle, podczas gdy pozostałe bodźce (tło) są już wcześniej całkowicie dostępne (Yantis, Jonides, 1988). Tło może być jednak prezentowane na peryferiach uwagi selektywnej, co oznacza, że mimo obiektywnej dostępności bodźce te są trudno zauważalne (Theeuwes, Kramer, Atchley, 1999).
Trzecim, ostatnio nieco zapomnianym, aspektem selektywnej uwagi jest przedłużona koncentracja na określonym typie obiektów (Mackworth, 1948, 1950). Dzięki tej cesze uwagi możliwe jest monitorowanie otoczenia przez dłuższy czas w poszukiwaniu bodźców określonego typu (paradygmat 5.3). Na przykład żołnierz na warcie przez kilka godzin „natęża uwagę”, aby wykryć wszelkie sygnały niebezpieczeństwa, a jednocześnie nie podnieść fałszywego alarmu w odpowiedzi na zagrożenie pozorne. Czujność uwagi (Davies, Parasuraman, 1982), bo tak też bywa określany ten aspekt uwagi, podlega wielu ograniczeniom, zazwyczaj związanym z postępującym w czasie wyczerpaniem czy niskim poziomem aktywacji systemu poznawczego (Davies, Parasuraman 1982). Efekt spadku czujności uwagi w czasie był przedmiotem wielu badań (Davies, Parasuraman, 1982; Parasuraman, Davies, 1976; Thackray, Jones, Touchstone, 1973), których wyniki zostaną przedstawione podczas prezen tacji teorii detekcji sygnałów i teorii czujności uwagi. Nie ulega jednak wątpliwości, iż przedłużona w czasie koncentracja uwagi-jest formą selektyw ności, dla której ograniczeniem jest tym razem nie nadmierna ilość informacji do przetworzenia, a nieuchronny spadek energii w wyniku wydłużonego czasu wykonania zadania. Paradygmat 5.3
Badanie przedłużonej koncentracji uwagi
Jak długo operator radaru jest w stanie koncentrować się na monitorze? Czy częstość pojawiania się symboli samolotów na monitorze radaru ma wpływ na koncentrację uwagi obserwatorów? Mackworth (1948, 1950) badała czasowe ograniczenia możliwości optymalnej obsługi urządzeń radarowych przez operato rów wojskowych. Jedno z opracowanych przez nią zadań laboratoryjnych było symulacją zadań, jakie operatorzy radarów wykonują w codziennej pracy. Zadanie to, znane jako test zegara, polega na percepcyjnej kontroli dużej tarczy zegaro wej. Wskazówka przemieszcza się rotacyjnie na tle okrągłej tarczy zgodnie z normalnym kierunkiem ruchu wskazówek zegara, w tempie jednego przemie szczenia na sekundę, w sposób nieciągły, tzn. pojawia się, znika, po czym pojawia się w kolejnym miejscu itd. Sygnałem, który powinien zostać rozpoznany przez obserwatora, jest pojawiający się od czasu do czasu „podwójny” krok wskazówki, trwający 2 sekundy. Sygnał jest prezentowany w nieregularnych odstępach czasowych, niezwykle rzadko, z reguły 12 razy na każde 30 minut. Poziom wy konania zadania ocenia się na podstawie analizy liczby prawidłowych rozpoznań w trakcie ciągłego, dwugodzinnego okresu kontroli tarczy zegara przez osobę badaną (żadnych przerw ani odpoczynku).
5.1. Isto ta i asp ek ty uwagi
183
Test ten okazał się wzorcowym narzędziem do badania przedłużonej koncen tracji uwagi. Na jego podstawie skonstruowano inne narzędzia do badania prze dłużonej koncentracji, zwane testami ciągłego wykonania (continuous performan ce tests, CPT). Zadania tego typu charakteryzują się: (1) długim czasem trwania (nawet do 2-3 godzin); (2) niskim prawdopodobieństwem pojawienia się sygnału (od 0,03 do 0,10); (3) wykorzystaniem stosunkowo płytkiej zasady selekcji informacji w trakcie analizy bodźców (zasada podobieństwa sensorycznego lub co najwyżej płytka identyfikacja semantyczna). Osobie badanej można np. pokazywać serię cyfr z poleceniem zareagowania zawsze na cyfrę 9 (lub jakąkolwiek inną). Analiza wyników tego typu badań sprowadza się do osza cowania liczby poprawnych reakcji i liczby błędów w kolejnych blokach analizy, np. 10-minutowych (Parasuraman, Davies, 1976). W zadaniach tego rodzaju zwykle obserwuje się prawie bezbłędne wykonanie przez dłuższy czas. Dopiero po upływie ok. 45 minut badani zaczynają popełniać błędy. W przypadku braku spodziewa nego efektu spadku poprawności wykonania w funkcji czasu, analizuje się czas detekcji poszczególnych bodźców (Jerrison, 1959). Czas ten zaczyna się w pewnym momencie wydłużać, co nawet przy braku spadku dokładności pozwala wykryć negatywny wpływ wydłużonego okresu koncentracji na sprawność uwagi.
Podzielność uwagi, a więc możliwość jej koncentracji na dwóch lub więk szej liczbie źródeł informacji, jest czwartym ważnym aspektem uwagi (pa radygmat 5.4). Człowiek jest zdolny do jednoczesnego wykonywania kilku czynności, np. czytania gazety i słuchania radia. Potrafi też słuchać, np. wykładu i jednocześnie notować lub przygotowywać pytanie, które za chwilę postawi wykładowcy. Zjawisko podzielności uwagi nakazuje postawić pytanie o wyma gania, stawiane mechanizmom uwagi selektywnej w związku z koniecznością dzielenia jej na konkurencyjne zadania, a przez to równoległego kontrolowania więcej niż jednego procesu przetwarzania danych (Kahneman, 1973). Pod stawowym problemem badawczym w zakresie podzielności uwagi jest pytanie o to, czy uwaga może w pewnych warunkach funkcjonować jako zestaw niezależnych modułów selekcyjnych (Allport, 1980; Allport, Antonis, Reynolds, 1972; McLeod, 1977). Jeśli by tak było, równoległa kontrola kilku procesów nie musi spowodować zakłócenia któregokolwiek z nich. Jeśli natomiast podziel ność uwagi oznacza dzielenie pewnej ograniczonej puli „mocy obliczeniowej” na więcej niż jedno zadanie, równoległa kontrola kilku procesów musi spowodować zakłócenie przynajmniej jednego z nich (Kahneman, 1973, 1975; Ninjo, Kahneman, 1974). Wyniki badań częściowo rozstrzygających ten problem zostaną przedstawione przy okazji prezentacji teorii modułów i teorii zasobów uwagi. Paradygmat 5.4
Badanie podzielności uwagi i kontroli czynności jednoczesnych Czy możemy jednocześnie słuchać interesującego wykładu i rozmawiać z koleżan ką ze szkolnej ławki? Na ile pogorszy się wykonanie każdej z tych czynności w porównaniu do warunków, w których będziemy je wykonywać pojedynczo? Ba-
184
Rozdział 5. Uwaga i świadomość
dania w paradygmacie zadań jednoczesnych były początkowo prowadzone | w zmodyfikowanym paradygmacie podążania (zob. paradygmat 5.1). Jego mo; dyfikacja polegała na tym, że zadaniem uczestników badania było jednoczesne J podążanie za dwoma przekazami, prezentowanymi badanym do dwóch różnych J kanałów sensorycznych. Na przykład w badaniu Ninio i Kahnemana (1974) polei cono osobom badanym śledzić nazwy zwierząt pojawiające się w obu równoleg li łych przekazach. Mówiąc krótko - modyfikacja paradygmatu podążania polegała na f zastąpieniu kanału ignorowanego drugim, równoległym kanałem ważnym. Hunt i Lansman (1982) zaproponowali inną procedurę testowania efektyw ności dwóch jednocześnie wykonywanych czynności. Zgodnie z ich schematem, zwanym „od łatwego do trudnego”, badani wykonują zadanie priorytetowe o wzrasi tającym poziomie trudności. W badaniach Hunta i Lansman były to matryce ■sprogresywne testu inteligencji Ravena. Dodatkowo uczestnicy badania przez cały czas rozwiązywania zadania priorytetowego wykonują zadanie doładowujące; w badaniach Hunta i Lansman była to kontrola położenia dźwigni. Wzrost trudności zadania priorytetowego powoduje konieczność inwestowania coraz to nowych, dodatkowych zasobów, których ilość może się wyczerpać, zwłaszcza gdy część z nich musi zostać przeznaczona na wykonywanie zadania doładowującego. Przy założeniu, że badani wykonują oba zadania z zaangażowaniem tej samej, ograniczonej puli zasobów, można wyznaczyć w zadaniu priorytetowym taki punkt trudności, powyżej którego rozwiązywanie tego zadania okaże się niemożliwe. Miarą podzielności uwagi jest wówczas ów „punkt załamania” na skali trudności zadania priorytetowego. Im wyżej jest on położony, tym większa jest podzielność. Jako miarę podzielności uwagi można też traktować różnicę między pozio mem wykonania zadania priorytetowego w warunku wymuszonej podzielności a poziomem wykonania tego samego zadania wtedy, gdy ma ono monopol na zasoby poznawcze, tzn. jest wykonywane bez konieczności równoległej kontroli dodatkowego zadania (Nęcka, 1994, 2000). Interesujące, że prowadząc badania w paradygmacie „od łatwego do trudnego”, Lansman, Poltrock i Hunt (1983) ustalili, iż poziom wykonania zadania priorytetowego w warunku pojedynczym jest pozytywnie skorelowany (r = 0,50 do 0,60) z poziomem wykonania tego zadania przez tych samych badanych w warunku podwójnym. Korelacja ta dotyczy wprawdzie tylko osób badanych o wyższym poziomie inteligencji, ale analiz dla badanych o obniżonym poziomie inteligencji nie przedstawiono. Pozytywny - istot ny i silny - związek między, traktowanymi jako odrębne, aspektami: selektywności i podzielności uwagi przemawia na korzyść tezy o jednorodnym charakterze uwagi (Nęcka, 1995; Szymura, Nęcka, 2004).
Ostatnim z ważniejszych aspektów uwagi jest jej przerzutność (Jersild, 1927). Terminem tym oznacza się zdolność uwagi do przełączania się między dwoma zadaniami, „obsługiwanymi” przez niezależne procesy przetwarzania informacji. Życie codzienne, podobnie jak czynności zawodowe, wymaga nie ustannego przerzucania uwagi z jednego obiektu na inny. Zajęci jesteśmy np. pisaniem, ale musimy odebrać telefon, aby za chwilę znów wrócić do przerwanej czynności. Przerzucanie uwagi oznacza konieczność zahamowania jednego procesu poznawczego i uruchomienia procesu alternatywnego. Wiąże się to
5.1. Isto ta i asp ek ty uw agi
185
zwykle z kosztami poznawczymi, np. ze zwiększoną ilością czasu, potrzebnego na wykonanie zadania, albo ze zwiększonym ryzykiem popełnienia błędu. Ba dania nad przerzutnością uwagi (paradygmat 5.5) zmierzają głównie do ustalenia wielkości tych kosztów i sposobów ich redukcji (Allport, Wylie, 2000; Meiran, 2000; Meiran, Chover, Sapir, 2000; Spector, Biedermann, 1976). Wyniki tych badań zostaną przedstawione podczas prezentacji teorii przerzutności, zwłaszcza teorii rekonfiguracji (Rogers, Monsell, 1995). | Paradygmat 5.5
Badanie przerzutności uwagi
Nie każda zmiana rodzaju aktywności oznacza pogorszenie sprawności działania. I Na przykład przedzielenie wysiłku umysłowego ćwiczeniami fizycznymi ułatwia f ponowne skupienie się na problemie. Również zmiana jednej aktywności umysło wej na inną nie musi oznaczać chwilowej utraty sprawności, jeśli podobieństwo między dwoma rodzajami aktywności jest znikome. Jeśli natomiast mamy przetwarzać ciągle ten sam zestaw danych, ale według zmieniających się reguł, pogorszenie wykonania jest niemal pewne. Owo pogorszenie nazywamy poznaw8 czymi kosztami przełączania się między zadaniami. Badania w paradygm acie przełączania się m iędzy zadaniam i (task switching) zapoczątkował Jersild (1927). Prezentował on osobom badanym długie I kolumny dwucyfrowych liczb. Zadanie polegało na wykonywaniu operacji matematycznych: dodawaniu liczby 6 lub odejmowaniu liczby 3 od każdego | kolejno prezentowanego elementu kolumny. Jersild porównywał czas potrzebny do wykonania dwóch wersji zadania. W jednej wersji trzeba było naprzemiennie I dodawać 6 lub odejmować 3; była to wersja mieszana, wymagająca przerzutności I uwagi. W drugiej wersji trzeba było wykonywać tylko jeden rodzaj przekształcenia, czyli albo dodawać 6, albo odejmować 3 - dopóty, dopóki nie skończy się cała | kolumna liczb; była to zatem wersja jednorodna, wymagająca koncentracji uwagi na jednym zadaniu. W badaniach prowadzonych według tego paradygmatu stwier1 dza się zwykle występowanie różnic, jeśli chodzi o czas potrzebny do wykonania każdej wersji zadania. Dłuższy czas, konieczny do ukończenia wersji mieszanej, i odzwierciedla koszty związane z koniecznością przełączania uwagi między za daniami (u Jersilda - dodawanie lub odejmowanie). Odejmując dwie wartości czasu wykonania zadania otrzymujemy oszacowanie wielkości tego kosztu. Można go też oszacować, porównując wskaźniki poprawności wykonania w obu wersjach. Jeśli zadanie nie będzie ogólnie zbyt łatwe (efekt podłogowy), wersja mieszana i przyniesie więcej błędów niż wersja jednorodna. Odejmując wskaźniki poprawności wykonania, możemy oszacować koszt przełączania uwagi między zadaniami. Zdarza się, że badani dokonują wymiany kosztów czasowych na poprawnościowe ; lub odwrotnie. Możemy więc nie zaobserwować różnic w czasie, potrzebnym na wykonanie obu wersji, ale ujawnią się różnice w zakresie liczby błędów, albo 8 odwrotnie. Możliwe jest też oczywiście zaobserwowanie kosztów przełączania za równo w odniesieniu do czasu wykonania, jak też ogólnej liczby błędów. Dalsze badania prowadzone w tym paradygmacie wykazały, że wielkość kosztów może zależeć od obecności wskazówek dotyczących tego, które warunki zadania będą obowiązywać w następnej próbie (Spector, Biedermann, 1976). Na
186
Rozdział 5. Uwaga i świadomość
przykład informacja o tym, że za chwilę trzeba będzje odejmować lub dodawać, zdecydowanie zwiększa efektywność przełączania uwagi między zadaniami. Wydaje się, że informacja na temat rodzaju kolejnego zadania uruchamia nasta wienie, umożliwiające przygotowanie się do jego wykonania. Koszty przełączania można też zmniejszyć, wydłużając przerwę między kolejnymi elementami mieszanej wersji zadania (Allport, Styles, Hiesh, 1994). Im dłuższa przerwa, tym mniejsze prawdopodobieństwo błędu i wydłużenia czasu reagowania. Badania sugerują, że obecność wskazówek na temat następnej próby oraz wydłużenie czasu między próbami działają niezależnie, co oznacza, że wykorzystują różne mechanizmy poznawcze, odpowiedzialne za przerzutność uwagi. Dodajmy, że dwa używane w tym kontekście terminy mają odmienne zna czenie. Uwaga przerzuca się z jednego obiektu na inny, zaś człowiek przełącza się z jednego zadania na inne. Przerzutność (shifting) jest więc konstruktem teore tycznym, odnoszącym się do hipotetycznego sposobu funkcjonowania mecha nizmu uwagi, podczas gdy przełączanie się między zadaniami (task switching) to termin obserwacyjny, odnoszący się do sposobu zachowania osoby badanej w określonych warunkach eksperymentalnych lub po prostu człowieka w zmienia jących się warunkach otoczenia.
Na zakończenie tego podrozdziału warto podkreślić, że wszystkie wymie nione aspekty uwagi, a w konsekwencji wszystkie niżej omówione teorie tego zjawiska, dotyczą w istocie tego samego zagadnienia. Jest to problem ograni czonej zdolności systemu poznawczego do przetwarzania dużej ilości informacji w tym samym czasie. W związku z tym ograniczeniem system poznawczy dokonuje pewnych istotnych decyzji, np. znacząco redukuje ilość informacji dopuszczonych do dalszego przetwarzania (selekcja źródła), albo ucieka się do prób pogodzenia sprzecznych wymagań (podzielność, przerzutność). System może też nie podejmować żadnych znaczących decyzji, ale wykazuje obniżenie sprawności w związku z nadmierną liczbą mało wyróżniających się bodźców (przeszukiwanie poła percepcyjnego) albo z wydłużonym okresem czujności (przedłużona koncentracja). Mimo wieloaspektowości uwagi i rozmaitości za dań, w których realizacji system ten bierze udział, mamy tu do czynienia w gruncie rzeczy z tą samą funkcją poznawczą - z selektywnością (Driver, 2001). Większość przejawów tejże selektywności polega na redukcji nadmiaru bodźców (selekcja źródła, przeszukiwanie pola, przedłużona koncentracja), ale niektóre polegają na kontroli nadmiaru możliwych reakcji (podzielność, przerzutność). Uwaga ujawnia się więc jako mechanizm o niezwylde zróżnicowanym zakresie funkcji, a mimo to jednolity (Nęcka, 1995; Szymura, Nęcka, 2004).
5.2. Teorie uwagi Pięć opisanych powyżej aspektów uwagi odpowiada pięciu funkcjom, jakie pełni ten mechanizm w ogólnej strukturze umysłu. Natomiast zarysowane w tym rozdziale teorie opisują poznawczy mechanizm odpowiedzialny za pełnienie tych funkcji. Wiemy już, co uwaga robi, teraz opiszemy, jak to robi.
5.2. Teorie uwagi
187
5.2.1. Teorie selekcji źródła informacji
j ; i i? t >
J
Historycznie najwcześniejsza jest koncepcja filtra uwagi. Istnieje wiele wersji tej koncepcji, a ich wspólną cechą jest założenie, że informacja wędrując od organów zmysłowych do świadomości napotyka na swej drodze mechaniczną przeszkodę, czyli filtr, zwany również bramką. Filtr ten skutecznie blokuje znaczną część docierającej do organizmu stymulacji sensorycznej, podczas gdy innym informacjom umożliwia dostęp do kolejnych etapów przetwarzania. Odbywa się to na zasadzie czasowego zablokowania wszystkich źródeł informacji z wyjątkiem jednego; uwaga redukuje więc nadmiar informacji na wejściu sensorycznym poprzez selekcję źródła informacji. Całość stymulacji, pochodząca ze wszystkich aktywnych źródeł, oczekuje na przejście przez filtr jak gdyby w poczekalni. Jeśli jednak coś nie zostanie zaakceptowane przez filtr, ulega szybkiej degradacji. Szybkość zanikania zależy m.in. od modalności zmysłowej (wzrok, słuch itd.), ale zazwyczaj „poczekalnia” jest czynna nie dłużej niż od kilku do kilkunastu sekund (Sperling, 1960, 1963). Informacja zatrzymana „w poczekalni” nie może być przetworzona głębiej niż na poziomie sensorycznym. Być może właśnie dlatego informacja ta szybko zanika, ponieważ danych nie przetworzonych na głębszym poziomie analizy nie można dłużej przechowywać w pamięci. Natomiast przejście przez filtr oznacza, że informacja zostaje dopuszczona do dalszego przetwarzania już na głębszym poziomie (np. semantycznym), co może doprowadzić do jej ujaw nienia się w postaci świadomego doznania. Założenie o istnieniu filtra uwagi jest wspólne dla wszystkich odmian tej koncepcji, różnice polegają natomiast na postulowaniu odmiennych zasad funkcjonowania mechanizmu filtrującego informacje. Autorem pierwszej koncepcji filtra uwagi jest Donald Broadbent (1957, 1958, 1971, 1982). Zaproponowany przez niego model można wizualnie przed stawić w kształcie litery „Y” (ryc. 5.1). „Ramiona” tej litery reprezentują dwa sensoryczne kanały informacyjne wchodzące do systemu; każdy z nich doprowadza informację z jednego źródła. „Ramiona” te zbiegają się w „nogę” - pojedynczy kanał, w którym możliwe jest dalsze, już semantyczne, przetwa rzanie informacji. Uwaga działa więc trochę na zasadzie zwrotnicy, przepusz czającej komunikaty z lewego lub prawego kanału sensorycznego w zależności od tego, który z nich spełnia zasadę selekcji. Ta ostatnia ma zawsze charakter fizykalny: o tym, czy dany sygnał opuści „poczekalnię” w kanale sensorycznym i przejdzie do etapu przetwarzania semantycznego, decydują fizyczne parametry sygnału, takie jak: jego intensywność, kolejność w szeregu czy współistnienie innych bodźców. Ze względu na sposób regulowania pracy mechanizmu filtrującego informacje, zasadę tę nazwano dla uproszczenia zasadą sensoryczną lub zasadą „wszystko albo nic”. Komunikat w danym momencie nieprzetwarzany oczekuje w zamkniętym kanale sensorycznym, gdyż w kanale seman tycznym nie ma na razie dla niego miejsca. Bardzo szybko ulega więc degradacji i w efekcie zapomnieniu. Jedyne, co utrzymuje się po nim w pamięci, to fizyczna charakterystyka sygnałów. Stąd badani w paradygmacie dychotycznej prezenta cji bodźców (paradygmat 5.1) są w stanie rozpoznać płeć spikera przekazu w kanale ignorowanym, ale nie mogą odpowiedzieć na żadne pytanie dotyczące treści tego przekazu (Cherry, 1953). Płeć spikera można bowiem rozróżnić na
188
Rozdział 5. Uwaga i świadom ość Teorie wczesnej selekcji informacji:
1 Ryc. 5.1. Model filtra uwagi wg Broadbenta (1957).
podstawie wysokości tonu głosu, czyli fizycznej charakterystyki przekazu; na tej podstawie nie można jednak powiedzieć niczego o znaczeniu komunikatu. Gdy nie jest jasne, którego z dwóch przekazów należy słuchać, ale wiadomo, że któregoś trzeba, rozpoznanie każdego przekazu utrzymuje się na poziomie 50% (Broadbent, 1952). Model Broadbenta poddano wielokrotnie ostrej krytyce. Badacze zaakcep towali wprawdzie metaforę uwagi jako filtra (bramki, zwrotnicy), niektórzy skłonni byli nawet zgodzić się z jednokanałowym charakterem dalszego przetwarzania informacji już po selekcji (zasada „wszystko albo nic”), ale nie mogli zgodzić się z sensoryczną zasadą funkcjonowania mechanizmu selektyw ności. Zasada ta uwzględnia bowiem jedynie fizyczne cechy bodźców, tym czasem wydaje się, że wiele decyzji selekcyjnych jest podejmowanych raczej na podstawie znaczenia sygnałów, niż ich cech fizykalnych. Modyfikując badania w paradygmacie dychotycznej prezentacji badacze starali się wykazać, iż mechanizm filtrujący informacje może się kierować także innymi zasadami se lekcji. Na przykład Moray (1959) umieścił w przekazie ignorowanym kilka krotnie powtarzane imię osoby poddanej testowi. Okazało się, iż po zakoń czeniu eksperymentu badani wiedzieli o tym, że w „niesłuchanym” komunikacie pojawiało się ich imię. Tej wiedzy nie towarzyszyło pogorszenie poziomu wykonania zadania podstawowego, polegającego na odtworzeniu z pamięci treści komunikatu ważnego. Spektakularnych danych na temat roli semantycznych reguł selekcji materiału dostarczyli Gray i Wadderburn (1960). Zamiast fragmentów prozy, używanych z reguły we wcześniejszych badaniach jako dychotycznie przekazy wane komunikaty, autorzy użyli naprzemiennych ciągów cyfr i sylab. Każdemu badanemu prezentowano w tym samym czasie jedną cyfrę i jedną sylabę, po jednym sygnale na każde ucho. Kolejność cyfr i sylab była naprzemienna: po cyfrze zawsze następowała sylaba i odwrotnie, np. 4 ha 7 do 3 mi. Dodatkowo, połowę badanych poinformowano o możliwości zgrupowania sygnałów w dwie różne kategorie, a drugiej połowie nic na ten temat nie mówiono. Gray i Wadder burn oczekiwali selekcji sygnałów ze względu na ich kategorialną przynależ
5.2. Teorie uw agi
189
ność, a nie według sensorycznego kanału prezentacji. Oczekiwano więc, że osoby badane zeznają, iż słyszały 4 7 3, a potem ha do mi, mimo że te dwa ciągi znaków pojawiały się naprzemiennie w dwóch różnych kanałach. Wprawdzie nie wszyscy badani zachowali się w eksperymencie zgodnie z tymi hipotezami, ale zdecydowanie wyższy poziom wykonania zadania, mierzony liczbą poprawnych odpowiedzi, zaprezentowali ci spośród uczestników eksperymentu, którzy raportowali osobno cyfry i osobno sylaby. Okazało się poza tym, że cyfry często „zbrylano” w liczby, a sylaby w słowa. Grupowanie bodźców zgodnie z ich znaczeniem, a przeciwko porządkowi, w jakim je prezentowano, było szcze gólnie widoczne u tych osób badanych, które poinformowano o przynależności kategorialnej bodźców. W kolejnym eksperymencie okazało się jednak, że na to, jaka zasada selekcji jest stosowana przez mechanizm filtrujący (sensoryczna czy semantyczna), ma wpływ czas pozostawiony na analizę poszczególnych par bodźców. Broadbent i Gregory (1964) wykazali, że stosowanie semantycznej zasady selekcji jest możliwe jedynie przy relatywnie długich przerwach pomiędzy pojawieniem się jednej pary sygnałów a prezentacją następnej. Natomiast w sytuacji, gdy pary bodźców następowały po sobie bardzo szybko, wyniki pozostawały zgodne z tymi, jakie uzyskano już wcześniej przy użyciu jednolitych list bodźców, np. tylko cyfr (Broadbent, 1954), a więc jednoznacznie wskazywały na wykorzystywanie przez filtr zasady sensorycznej. Rozstrzygających danych na temat możliwości kierowania się przez filtr uwagi kryteriami semantycznymi dostarczyły badania Treisman (1960). Autorka wykazała, że uwaga automatycznie przełącza się z jednego kanału sensorycz nego na drugi, jeśli może w ten sposób śledzić treść sensownego komunikatu. Instrukcja, aby ignorować któryś z kanałów sensorycznych, przestaje obowią zywać w momencie, gdy do tego kanału trafia coś, co łączy się sensownie z informacją do tej pory uważnie śledzoną. Co więcej, filtr uwagi okazał się zdolny do „sklejania” fragmentów komunikatów pochodzących z różnych źródeł, tj. ważnego i ignorowanego, jeśli w wyniku takiego zabiegu powstanie coś, co ma sens (Treisman, 1970). Wyniki tych badań sugerują, że pojęcia „kanału ważnego” i „kanału ignorowanego” powinny być zdefiniowane na podstawie semantycznej zawartości komunikatów, a nie ze względu na to, czy coś „idzie” do ucha prawego, czy też lewego (zob. ramka 5.1). Ramka 5.1
Czy nasza uwaga spontanicznie podąża za sensem komunikatu?
Polecając osobom badanym podążać za zadanym fragmentem prozy, Anna Treisman (1960) dokonywała niespodziewanej zamiany kanałów sensorycznych: ważnego z ignorowanym. Proza przeznaczona do powtarzania, prezentowana w jednym z kanałów (np. lewym), nagle pojawiała się w drugim kanale (czyli prawym), podczas gdy komunikat ignorowany „przeskakiwał” do kanału pierwszego. " Komunikat ważny i ignorowany jak gdyby zamieniały się miejscami w sposób dla osoby badanej zaskakujący i nieprzewidywalny. Treisman zauważyła, że badani spontanicznie zmieniali kanał pierwszy na drugi i odwrotnie, jakby śledząc dalszy i ciąg tego komunikatu, za którym nakazano im nadążać. Z reguły jednak spóźniali się z przełączeniem filtra uwagi między kanałami o jedno lub dwa słowa. W każdym
190
Rozdział 5. Uwaga i świadom ość
razie po tym krótkim zawahaniu bezbłędnie powtarzali fragmenty prozy, które były semantycznie zgodne z wcześniejszymi fragmentami, mimo że pochodziły ze źródła, które na podstawie sensorycznej zasady selekcji powinno być z góry odrzucone. W kolejnych eksperymentach z wykorzystaniem tej techniki Treisman i współ pracownicy (Treisman, Squire, Green, 1974; Treisman, Sykes, Gelade, 1977) pre zentowali badanym w obu kanałach sensorycznych przekazy w różnym stopniu koherentne semantycznie lub brzmieniowo. Na przykład w kanale ważnym po jawiały się wybrane słowa, które trzeba było szybko rozpoznawać, podczas gdy w kanale ignorowanym mogły się pojawiać synonimy tych słów lub wyrazy o po dobnym brzmieniu. W wyniku prowadzonych badań stwierdzono efekt synonimu: jeśli w kanale ważnym pojawiało się słowo-sygnał, czas potrzebny na jego wykrycie wydłużał się, jeśli w kanale ignorowanym pojawił się w tym samym czasie jego synonim. Osoby badane jak gdyby przez moment wahały się, na co mają za reagować - czy na „oficjalne” słowo-sygnał z kanału ważnego, czy na odrzucone świadomie nierejestrowany synonim tego słowa, pojawiający się w kanale igno rowanym. Ten moment zawahania wydłuża czas reakcji, czego nie obserwowano wtedy, gdy w kanale odrzucanym pojawiały się słowa znaczeniowo niezwiązane lub bardzo słabo powiązane ze słowami-sygnałami. W innych badaniach Treisman (1970) udało się wykazać, że ludzie często dokonują fuzji (zbitek) dwóch słów pochodzących z różnych kanałów sensorycz nych, jeśli taka fuzja daje w efekcie wyraz, który coś znaczy (back + lack => black). Fuzje te - rezultat połączenia wbrew instrukcji eksperymentatora dwóch odrębnych elementów pochodzących z różnych źródeł sensorycznych - Treisman nazwała związkami iluzorycznymi. Prawdopodobieństwo powstania takiej zbitki wzrasta wraz ze zwiększaniem się liczby cech wspólnych obu składnikom przyszłej fuzji, takich jak podobne brzmienie lub przynależność do tej samej kategorii obiektów (Treisman, Sykes, Gelade, 1977). Zarówno efekt synonimu, jak i występowanie związków iluzorycznych mogą świadczyć na korzyść tezy o jednoczesnej analizie (synonim), a nawet możliwej integracji semantycznej (związek iluzoryczny) danych pochodzących z różnych kanałów sensorycznych. Hipotetyczny filtr uwagi byłby zatem zdolny do selekcjono wania informacji ze względu na znaczenie podlegających selekcji bodźców. Według Treisman oznacza to, że w procesie selekcji filtr uwagi uwzględnia semantyczne aspekty odbieranych sygnałów.
Na podstawie wyników badań sprzecznych z zasadą sensoryczną Treisman (1960, 1970) zaproponowała nowy, konkurencyjny wobec koncepcji Broadbenta model mechanizmu selekcji. W modelu tym całkowicie odrzuciła ideę, zgod nie z którą filtr uwagi dokonuje mechanicznej blokady odrzuconej informacji ze względu na jej właściwości fizykalne. Nie zgodziła się też z poglądem, że droga do dalszego przetwarzania jest dla informacji odrzuconych zamknięta jak gdyby od zewnątrz (stąd alternatywne określenie filtra: bramka). Zdaniem Treisman, filtr uwagi otwierany jest „od środka”, to znaczy przez te informacje, które już się przez filtr (bramkę) przedostały. Ma to działać w ten sposób, że informacje przepuszczone wcześniej przez filtr, a przetwarzane na poziomie semantycz nym, wzmacniają wszystkie dane, dopiero próbujące przedostać się przez filtr,
5.2. Teorie uw agi
i \ r [ ł [■ [ | j I j [ | j |
; j
[ | | \ | \ i
191
a których znaczenie zgadza się z tym, co jest aktualnie przetwarzane. W ten sposób bodźce semantycznie koherentne z informacjami analizowanymi już w kanale semantycznym miałyby łatwość w pokonaniu filtra (bramki), ponieważ są przez uwagę antycypowane. Dzieje się tak niezależnie od tego, którym kanałem sensorycznym docierają nowe informacje. Mogą docierać kanałem do tej pory ignorowanym, ale ponieważ są jak gdyby „oczekiwane”, łatwo przechodzą do dalszych etapów przetwarzania. Dlatego właśnie, zdaniem Treisman, jeśli to tylko możliwe, badani grupują bodźce zgodnie z ich znaczeniem, a nie według porządku ich prezentacji lub obecności w określonym kanale (np. ignorowanym). Pozostałe informacje, a więc te, które nie są semantycznie zbieżne z danymi aktualnie przetwarzanymi, byłyby wprawdzie również dopuszczane do dalszej obróbki, ale w postaci mało aktywnej, osłabionej. Decyzja selekcyjna przejawiająca się we wzmocnieniu lub osłabieniu informacji byłaby podejmowana na podstawie głębokiej analizy semantycznej wszystkich docierających do systemu informacji. Stąd zasadę selekcji zaproponowaną przez Treisman nazwano zasadą semantyczną, a stworzony przez nią teoretyczny model uwagi - modelem osłabiacza (attenuator; Czyżewska, 1991). Próbując rozstrzygnąć, od czego zależy, czy uwaga funkcjonuje zgodnie z zasadą sensoryczną czy semantyczną, Broadbent i Gregory (1964) dokonali rozróżnienia pomiędzy zestawem bodźców i zestawem reakcji. Pierwszy zestaw jest zbiorem sygnałów wysyłanych przez środowisko, podczas gdy zestaw drugi obejmuje to wszystko, o czym człowiek może nam powiedzieć, że spostrzega. Zadaniem autorów, selekcja sygnałów dokonuje się zgodnie z kolejnością do cierania poszczególnych bodźców w zestawie i według zasady opartej na fizycz nych parametrach sygnałów. Jeśli filtr otrzymuje informacje w tempie umożli wiającym ich percepcję, to wygenerowany przez system poznawczy zestaw reakcji jest identyczny z zestawem bodźców. Jeżeli natomiast tempo prezentacji jest szybsze, zestaw reakcji maleje w porównaniu do zestawu bodźców, przy zachowanej zgodności obu zestawów odnośnie do fizycznej kolejności pojawiania się sygnałów. Jeśli z kolei czas prezentacji bodźców dostatecznie się wydłuży, materiał zostanie pogrupowany przed jego prezentacją, a ponadto dostarczy się osobie badanej odpowiednich wskazówek, to filtr może wygene rować zestaw reakcji, który nie jest fizycznie zgodny z zestawem bodźców. Broadbent i Gregory uważają, że w przypadku szybkiej reprodukcji zestawu bodźców udział biorą tylko sensoryczne procesy selekcji opisane w teorii filtra Broadbenta. W innym przypadku na procesy sensoryczne nakładają się cen tralne mechanizmy przetwarzania informacji. Udział procesów centralnych wymaga czasu, jest więc niemożliwy w sytuacji szybkiej prezentacji sygnałów, a możliwy wtedy, gdy badanym pozostawia się czas na dalsze przetworzenie bodźców. Autorzy proponują więc ostatecznie koncepcję dwóch filtrów uwagi: sensorycznego i semantycznego. Deutsch i Deutsch (1963, 1967) zaproponowali jeszcze inne umiejscowienie filtra. Według nich efektywna selekcja informacji może zaistnieć dopiero wtedy, gdy spostrzegane sygnały zostają poddane świadomej obróbce. Osłabienie bądź wzmocnienie znaczenia sygnałów mogłoby się więc dokonywać dopiero po przekroczeniu bariery świadomości. Wcześniej wszystkie bodźce byłyby przetwarzane z jednakową skutecznością aż do poziomu głębokich reprezentacji umysłowych, jednak bez formułowania jawnej reprezentacji pa
192
Rozdział 5. U w aga i świadom ość
mięciowej (Duncan, 1980). Zasadę koniecznej świadomości szybko jednak odrzucono, wykazując iż nie jest ona w istocie konieczna do przetwarzania znaczenia sygnałów oraz podejmowania skutecznych i złożonych decyzji selekcyjnych (Corteen, Wood, 1972, 1974; Holender, 1986; Lackner, Garrett, 1972). Problem ten zostanie omówiony szerzej przy okazji prezentacji związków uwagi i świadomości (zob. rozdz. 5.3). Jeśli jednak ze sformułowania zasady selekcyjnej zaproponowanej przez Deutsch i Deutscha usunąć „konieczność”, to jak najbardziej słuszne wydaje się postulowanie istnienia kolejnego, trzeciego już filtra uwagi, działającego na poziomie świadomych decyzji selekcyjnych. Dotyczy to w szczególności selekcji w odniesieniu do wyższych, złożonych procesów poznawczych. Trudno np. zakładać, że dla właściwego wyboru kie runku studiów oba wcześniej omówione filtry informacji: sensoryczny i seman tyczny, okażą się wystarczające. Próby rozwiązania problemu umiejscowienia filtra uwagi doprowadziły do silnej polaryzacji poglądów. Dwa antagonistyczne stanowiska reprezentowali zwolennicy modeli wczesnej selekcji informacji, przypisujący podstawowe zna czenie zasadzie sensorycznej, oraz zwolennicy modeli późnej selekcji, pod kreślający doniosłość zasady semantycznej lub nawet zasady koniecznej świa domości sygnału. Pojawiały się także rozwiązania mniej radykalne, wskazujące na obecność dwóch lub nawet trzech filtrów, zdolnych do wczesnej lub późnej selekcji informacji w zależności od warunków zadania. Broadbent i Gregory (1964) sugerowali, że czynnikiem decydującym o wyborze przez system po znawczy jednego z potencjalnych filtrów może być tempo prezentacji informacji. Natomiast Lavie (1995, 2000; Lavie, Tsal, 1994) wskazuje raczej na czynnik ilościowy jako determinujący decyzje systemu odnośnie do umiejscowienia „wąskiego gardła” selekcji. Posługując się metaanalizą wyników wcześniejszych badań, a także wykorzystując rezultaty własnych eksperymentów, Lavie stwier dził, że model wczesnej selekcji znajduje potwierdzenie w badaniach, w których zadanie było percepcyjnie wymagające. Zadania tego rodzaju, nazwane za daniami o dużym ładunku percepcyjnym, polegają na prezentacji relatywnie dużej liczby bodźców, wśród których znajdują się zarówno sygnały, jak też liczne i różnorodne dystraktory. Natomiast modele późnej selekcji informacji znajdowały swoje potwierdzenie w badaniach z wykorzystaniem zadań o małym ładunku percepcyjnym, gdzie prezentowano zazwyczaj pojedynczy sygnał i dystraktor. Johnston (1978; Johnston, Heinz, 1978) wskazał na jeszcze jedno możliwe rozwiązanie problemu umiejscowienia mechanizmu selekcjonującego informa cje. Powrócił on do koncepcji istnienia tylko jednego filtra, za to zmieniającego swój charakter w zależności od poziomu przetwarzania informacji (Craik, Lockhart, 1972). Najważniejszą cechą takiego filtra byłaby jego elastyczność, przejawiająca się w możliwości szybkiej zmiany poziomu przetwarzania infor macji oraz niemal natychmiastowego przystosowania się do aktualnego poziomu analizy i selekcji danych. W swoich eksperymentach Johnston starał się wymiernie określić różnicę w działaniu elastycznego filtra na różnych poziomach przetwarzania. Stwierdził m.in., że czas potrzebny na dokonanie selekcji różni się znacznie ze względu na poziom przetwarzania: podczas gdy już 100 ms może wystarczyć do właściwej selekcji na poziomie sensorycznym (zależy to jednak od modalności bodźca; Woodworth, Schlosberg, 1963), zasada
5.2. Teorie uw agi
[ [ \ ! [ i I j
| [
j
S
1 { [
j j I
193
semantyczna wymaga co najmniej 360 ms (Johnston, 1978). Czas ten może się zresztą znacznie wydłużyć, jeśli zasada selekcji jest dość złożona (Posner, Mitchell, 1967). Ponadto wraz z wydłużeniem czasu selekcji, związanego z przejściem na wyższy poziom przetwarzania informacji, zwiększa się pojem ność samego filtra, mierzona ilością informacji objętej jednoczesnym przetwa rzaniem. Wyniki te znalazły potwierdzenie w kolejnych badaniach (Johnston, Heinz, 1978). Johnston wraz ze współpracownikami (Johnston, Heinz, 1979; Johnston, Wilson, 1980; Johnston, Dark, 1982) wykazali również, że efektyw ność działania elastycznego filtra na kolejnych poziomach przetwarzania zależy od skuteczności analizy i selekcji informacji na poziomach niższych. Percepcja wszelkich bodźców niezwiązanych z celem (szumu i dystraktorów) może być według nich powstrzymana już na poziomie sensorycznym: stopień sensorycz nego przetwarzania tych obiektów okazał się odwrotnie proporcjonalny do stopnia poprawnej selekcji sygnałów. Innymi słowy: im więcej zakłóceń udaje nam się zablokować na poziomie sensorycznym, tym poprawniej wychwytujemy później ważne sygnały na poziomie semantycznym. Możliwości kontrolowanej selekcji informacji na niższych poziomach przetwarzania są wprawdzie ograniczone, ale proces ten może zachodzić na wszystkich poziomach, nie wyłączając poziomu sensorycznego (Dark i in., 1985). Johnston nie określił wyraźnie, zgodnie z jaką zasadą selekcyjną funkcjo nuje postulowany przez niego elastyczny filtr. Wydaje się, że mogłaby tu działać zasada przetargu między szybkością a poprawnością (Snodgrass, Luce, Galanter, 1967; Meyer i in., 1988; Szymura, Słabosz, 2002). W eksperymentach z presją czasową badani z reguły nie są w stanie jednocześnie uzyskać dobrych wyników zarówno w zakresie szybkości, jak i poprawności reakcji. W konsekwencji, albo są szybcy, ale popełniają wiele błędów, albo też reagują poprawnie, ale kosztem znacznego spowolnienia przebiegu procesów przetwarzania informacji. Zgodnie z modelem Johnstona, im płytszy poziom analizy bodźców, tym szybszy proces selekcji informacji. Jednak na płytkim poziomie przetwarzania sygnału nie udaje się zanalizować wielu jego cech. W konsekwencji mechanizm filtrujący jest narażony na błędy w procesie selekcji informacji, gdyż może on pominąć niektóre sygnały lub też uznać za sygnały niektóre bodźce zakłócające. Na głę bokich poziomach przetwarzania informacji analiza bodźców jest znacznie bardziej złożona i uwzględnia więcej cech stymulacji. Wiąże się to z większą poprawnością procesów selekcyjnych kosztem wydłużenia czasu potrzebnego na dokonanie wyboru. Zatem na płytkich poziomach selekcji elastyczny filtr „płaci” poprawnością za szybkość, podczas gdy na poziomach głębokich szybkością za poprawność. Koncepcja Johnstona (1978; Johnston, Heinz, 1978, 1979) integruje różne wcześniejsze modele filtra uwagi (zob. ryc. 5.2). W jego modelu filtr funkcjonuje na poziomie sensorycznym zgodnie z zasadą „wszystko albo nic” (Broadbent), na poziomie semantycznym zgodnie z zasadą osłabiacza (Treisman), a na najgłębszym poziomie odniesienia do Ja - zgodnie z zasadą koniecznej świadomości (Deutsch i Deutsch). Ponadto, na każdym poziomie przetwarzania filtr działa według naczelnej zasady przetargu między szybkością a poprawnością (Snodgrass). Te cechy koncepcji Johnstona sprawiają, że zasługuje ona na bardzo wysoką ocenę ze względu na trafny opis mechanizmu selekcji źródła i dobre wyjaśnienia dostępnych danych empirycznych. Jej ograniczeniem wydaje
Poziomy przetwarzania informacji (Craik, Lockhart, 1972)
poziom głębszy (semantyczna identyfikacja)
poziom płytki (sensoryczny)
poziom najgłębszy (treści semantycznie związane)
i 51
►R
52 **
Filtr Broadbenta (1958)
Filtr Treismana (1960)
* Teoria (głębokości) poziomów przetwarzania informacji (Craik, Lockhart, 1972) * * Teoria filtra uwagi selektywnej (Broadbent, Treisman, Deutsch, 1958-1963) // ► Problem „szyjki od butelki”
Ryc. 5.2. Schematyczna prezentacja koncepcji elastycznego filtra uwagi wg Johnstona (1978).
Filtr Deutsch i Deutscha (1960)
5.2. Teorie uwagi
195
się przyjęcie założenia, że analiza i selekcja informacji ma miejsce tylko w jed nym kanale przetwarzania. Tymczasem, zdaniem wielu badaczy (Allport, 1980; Wickens, 1984; Pashler, 2000), system poznawczy jest zdolny do jednoczesnej selekcji informacji w wielu różnych kanałach przetwarzania. Mechanizmy jednoczesnej selekcji informacji opiszemy przy okazji prezentacji teorii zasobów i modułów uwagi (zob. rozdz. 5.2.4).
5.2.2. Teorie przeszukiwania pola percepcyjnego I !
l
I ; j
:
i ! ;
Najbardziej znaczącą koncepcją teoretyczną w tym obszarze jest teoria integracji cech zaproponowana przez Treisman (1982, 1988; Treisman, Gelade, 1980). Koncepcja ta podlegała licznym modyfikacjom, jednak jej podstawowe założenia pozostają niezmienne (Driver, 2001; Pashler, 2000). Według pierwotnego modelu Treisman, selekcja sygnałów odbywa się w dwóch etapach. Najpierw wszystkie sygnały i ich cechy docierają do tzw. map lokacyjnych. Są one czymś na kształt książki adresowej, bowiem kierują zapisem poszczegól nych właściwości postrzeganych obiektów, takich jak kolor, kształt itd. Mapy umożliwiają też wykrycie, czy dany atrybut (np. czerwony kolor albo kwadratowy kształt) jest obecny w którymkolwiek z obiektów znajdujących się w polu wzrokowym. Treisman sądzi, że każdy obiekt w polu percepcyjnym jest kodowany z uwzględnieniem najprostszych właściwości sensorycznych, takich jak kolor, orientacja przestrzenna, rozmiar, kształt, kierunek ruchu. Jest to przekonanie zgodne z ogólnie przyjętymi poglądami na temat percepcji (zob. rozdz. 7.4). Poszczególne sygnały docierają więc do map lokacyjnych, gdzie są automatycznie kodowane zgodnie ze wszystkimi swoimi charakterystykami w tzw. mapach cech. Kodowanie w obrębie mapy cechy odbywa się zawsze wtedy, gdy obiekty w polu wzrokowym różnią się w jakiś sposób pod względem tejże cechy. Jeśli np. niektóre obiekty są czerwone, a inne nie, mapa cech notuje ten fakt. Ten rodzaj kodowania cech ma, według Treisman, charakter automa tyczny i selektywna uwaga nie ma z nim wiele wspólnego. Zadaniem selektyw nej uwagi jest natomiast wybór właściwych map lokacyjnych, co prowadzi do selekcji właściwych map cech. Drugi etap selekcji polega na integracji zakodowanych wcześniej cech, w wyniku czego dochodzi do rozpoznania obiektu. Na przykład integrując cechę „czerwony kolor” z cechą „kwadratowy kształt” rozpoznajemy obiekt, jakim jest czerwony kwadrat. Integracja wymaga wcześniejszego zakodowania właści wości obiektów w mapach cech, ale podlega wpływom ze strony wymagań zadania (np. instrukcji eksperymentalnej) lub wskazówek płynących z otoczenia. Proces selekcji polega więc w istocie na aktywacji poszczególnych cech składowych obiektów - znajdujących się w obrębie map cech, a następnie na ich integracji w żądany obiekt. Podstawowym kryterium integracji jest tu znaczenie sygnału, które może, choć nie musi, przejawiać się w jego fizycznych charakte rystykach, a podstawowym czynnikiem umożliwiającym integrację jest aktywacja odpowiednich map cech w fazie automatycznego kodowania wszelkich właściwości bodźców. Według pierwotnej wersji koncepcji integracji cech w obiekt, proces przeszukiwania pola percepcyjnego dokonuje się szeregowo: cecha po cesze, obiekt
196
Rozdział 5. Uwaga i świadom ość
po obiekcie. Prowadząc badania w paradygmacie przeszukiwania pola wzroko wego (paradygmat 5.2), Treisman i Gelade (1980) porównały średni czas potrzebny badanym na odnalezienie obiektu zdefiniowanego przez pojedynczą cechę (poszukiwanie proste) lub związek cech (poszukiwanie koniunkcyjne) wśród licznego lub mniej licznego zbioru bodźców (ryc. 5.3). Czas potrzebny na
•D Ó .O 'O O t> O• OT d , 0 * 3
o
a
°
°
o o
S •(? M © •Q -5? G 0 SO
$
© ty <*>■ 3 » O ^ S ^
f
Ryc. 5.3. Bodźce używane w badaniach Treisman (1988) nad przeszukiwaniem pola percepcyjnego. Cechy różniące bodźce: kształt figury (np. trapez, okrąg) oraz położenie kropli (wewnątrz, zewnątrz) figury. Przykład bodźca dla poszukiwania prostego: trapez. Przykład dla poszukiwania koniunkcyjnego: trapez z kropką na zewnątrz.
wykonanie zadania okazał się znacznie dłuższy w przypadku poszukiwania koniunkcyjnego niż w warunkach poszukiwania prostego. Co więcej, w przypadku poszukiwania koniunkcyjnego przyrost czasu był liniową funkcją zwiększającej się liczebności zbioru bodźców (ryc. 5.4). Na przykład odnalezienie czerwonego kwadratu trwało dłużej, jeśli był on zawarty w zbiorze piętnastu elementów, niż wtedy, gdy tych elementów było pięć. Natomiast czas poszukiwania prostego nie był w żadnej mierze zależny od rozmiaru zestawu bodźców. Treisman (1988) uznała więc, że proces poszukiwania prostego polega na równoległym prze szukiwaniu pola wzrokowego, podczas gdy proces poszukiwania koniunkcyj nego wymaga szeregowego przetwarzania danych. Wniosek ten wynika z ogólnie akceptowanego poglądu, że czas trwania procesu szeregowego zależy od liczby elementów w zestawie bodźców, natomiast czas procesu równoległego nie wykazuje takiej zależności (Townsend, 1972; Egeth, Jonides, Wall, 1972). Zauważmy, że integracja cech w obiekt z natury rzeczy wymaga poszukiwania koniunkcyjnego, ponieważ polega na złożeniu obiektu z więcej niż jednej cechy. Dlatego, zdaniem Treisman, integracja cech w obiekt musi mieć charakter szeregowy. Tezę tę poddano gruntownej krytyce. W badaniach nad przeszukiwaniem prostym (Bergen, Julesz, 1983; Jonides, Yantis, 1988; Nakayama, Silverman, 1986) okazało się bowiem, że nie zawsze
5.2. Teorie uw agi
1
6
12
1
6
197
12
liczba bodźców jednocześnie prezentowanych
Ryc. 5.4. Czas detekcji sygnału złożonego (koniunkcja cech) i prostego (pojedyncza cecha) w zależności od liczby dystraktorów w polu wzrokowym (za: Treisman, 1988).
ten typ selekcji informacji ma charakter procesu równoległego. Bergen i Julesz polecili badanym poszukiwać sygnałów, jakimi były litery, w prezentowanym im wizualnie zbiorze bodźców bardzo podobnych do siebie pod względem kształtu. Okazało się, że im większe jest podobieństwo percepcyjne między sygnałem a dystraktorem (czyli im trudniej jest wyróżnić sygnał z szumu percepcyjnego), tym większe jest prawdopodobieństwo wystąpienia szeregowego procesu przeszukiwania. Zgodnie z tymi wynikami, równoległy lub szeregowy charakter procesu przeszukiwania pola wzrokowego może w większym stopniu zależeć od podobieństwa sygnału do dystraktorów niż od liczby integrowanych cech poszukiwanego bodźca. Hipotezy wpływu podobieństwa sygnału do dystrakto rów na szybkość i jakość procesu integracji bronił później Duncan (1989; Duncan, Humphreys, 1989). Znalazła ona także swoje potwierdzenie w bada niach Słabosz i Szymury (2004). Jak się więc wydaje, wpływ na jakość i szybkość
198
Rozdział 5. Uwaga i świadom ość
procesu przeszukiwania pola wzrokowego mają możliwości w zakresie od rzucania dystrakcji na sensorycznym poziomie przetwarzania. Możliwości te są jednak uwarunkowane zarówno jakością prezentowanej stymulacji, jak i zdolnością systemu do obrony przed zakłóceniami (Cave, Wolfe, 1990; Egeth, Virzi, Garbart, 1984; Szymura, 1999). Z kolei w badaniach nad przeszukiwaniem koniunkcyjnym McLeod, Driver i Crisp (1988) wykazali, że czas potrzebny na poszukiwanie koniunkcyjne celu charakteryzowanego przez dwie cechy: kształt i ruch, nie musi być rosnącą funkcją wzrastającej liczebności bodźców. W kolejnym eksperymencie Driver i Baylis (1989) stwierdzili, że poruszające się wraz z sygnałem bodźce za kłócające wywołują większą interferencję niż dystraktory statyczne, nawet wtedy, gdy te ostatnie umieszczone są znacznie bliżej poszukiwanego sygnału. Wreszcie McLeod, Driver, Dienes i Crisp (1991) wykazali, że proces poszu kiwania koniunkcyjnego w przypadku dwóch cech: ruchu i kształtu obiektów, jest równoległy niezależnie od możliwego kierunku ruchu obiektów. W ostatnim z prezentowanych tu badań, Driver i McLeod (1992) stwierdzili natomiast, iż poszukiwanie obiektów charakteryzowanych przez znacznie zmienioną orientację przestrzenną (obrót o 45° kątowych) i zdefiniowanych przez ruch jest znacznie łatwiejsze i szybsze niż wówczas, gdy obiekty te pozostają w bezruchu. Przeciwny efekt został jednakże zaobserwowany przy stosunkowo niewielkich odchyleniach bodźców od wspomnianych osi symetrii (obrót o 9° kątowych). Prowadząc eksperymenty nad prostym i koniunkcyjnym poszukiwaniem obiektów zdefiniowanych przez cechy statyczne, Treisman (1988, 1993) nadal jednak uzyskiwała wyniki świadczące o szeregowym charakterze badanego pro cesu. Zgodziła się tylko z sugestią Drivera i McLeoda (1992; McLeod, Driver, 1993), iż ruch może być cechą wyjątkową wśród kodowanych charakterystyk obiektów, przyspieszającą etap integracji i tym samym cały proces selekcji. Właściwości takie nazwano mianem cech priorytetowych (McLeod i in., 1991). Priorytetowy charakter cechy oznacza możliwość wczesnego, szybkiego i auto matycznego przetwarzania informacji z nią związanych. Uznano, że przetwa rzanie właściwości priorytetowych ma miejsce we wczesnej fazie selekcji, zwanej przeduwagową (preattentive). W fazie tej dokonuje się segregacja pola wzrokowego zgodnie z analizowaną cechą, np. na część ruchomą i statyczną. Taka wstępna analiza pola wzrokowego możliwa jest jedynie wtedy, gdy cecha priorytetowa rzeczywiście wyróżnia obiekt w polu wzrokowym, to znaczy przyjmuje wartości dystynktywne (Treisman, Viera, Hayes, 1992). Dlatego właściwością priorytetową może być ruch obiektu, ale również jego szczególnie wyrazisty kolor (D’Zamura, 1991; Kyllingsbek, Bundesen 2001; Słabosz, Szy mura, 2004). Z kolei ruch obiektu sam w sobie nie musi stać się cechą prio rytetową (Driver, McLeod, 1992), zwłaszcza gdy odbywa się poza centrum uwagi, czyli na peryferiach pola wzrokowego (Mack, Rock, 1998; Mack i in., 1992; Rock i in., 1992; Szymura, Horbaczewski, 2005). Modyfikując swą pierwotną koncepcję, Treisman (1993) uznała, że prio rytetowe właściwości obiektów (np. ruch, dystynktywny kolor) są kodowane w odpowiadających im mapach cech znacznie szybciej niż pozostałe cechy. Mapy właściwości priorytetowych znajdują się w najwyższym stopniu gotowości i uprzywilejowania. Gdy dochodzi do integracji poszczególnych cech w obiekt,
5.2. Teorie uwagi
199
mapy właściwości priorytetowych aktywizują bądź dezaktywizują pozostałe mapy cech konieczne do identyfikacji obiektu. Model równoległej i szeregowej integracji cech (Treisman, 1993; Treisman, Sato, 1990) opisuje działanie dwóch procesów: „odgórnego”, polegającego na aktywizacji właściwych map cech zgodnie z narzuconą zasadą selekcji, i „oddolnego”, sprowadzającego się do automatycznej dezaktywacji pozostałych map cech. Poprawiony przez Treisman (1998) model przeszukiwania pola wzroko wego zyskał akceptację, choć różni badacze nadal znajdują wyjątki od zapropo nowanych przez nią reguł przeszukiwania pola wzrokowego. Wolfe, Cave i Franzel (1989) wykazali np., że selekcja obiektów charakteryzowanych przez trzy cechy niepriorytetowe może być szybsza i bardziej poprawna od selekcji celów wybieranych ze względu na dwie takie właściwości. Cave i Wolfe (1990) wykryli ponadto, że detekcja unikatowych bodźców w polu wzrokowym, de finiowanych jako koniunkcja wielu różnych cech, niekoniecznie priorytetowych czy dystynktywnych, może być również procesem szybkim i równoległym. Stwierdzili bowiem brak zależności czasu, potrzebnego na takie przeszuki wanie, od liczby elementów w zbiorze przeszukiwanych bodźców. W sfor mułowanym na podstawie tych badań modelu przewodników uwagi Cave i Wolfe (1990; Wolfe, Cave, Franzel, 1989; Wolfe i in., 1990) sugerują, że jeśli ilość informacji o obiekcie, zgromadzona w przeduwagowej fazie kodowania percepcyjnego, jest dostatecznie duża, wówczas proces integracji cech w obiekt nie jest konieczny. W takim przypadku brak drugiego etapu, ze swej natury oparte go na zasadzie przetwarzania szeregowego, sprawia, że caty proces selekcji składa się z procesów przetwarzania równoległego. Taki specyficzny, bogaty w cechy obiekt wyróżnia się tak bardzo na tle innych obiektów, jak gdyby „wyskakując” (pop out) z pola wzrokowego, że automatycznie przyciąga uwa gę i może zostać trafnie zidentyfikowany już na podstawie samej fazy kodowania cech (Irwin, 1981). Zjawisko przyciągania uwagi przez właściwości bodźców badano także w inny sposób. Yantis i Jonides (1984; Yantis, 1993; Jonides, Yantis, 1988) zmodyfikowali paradygmat przeszukiwania pola wzrokowego, opóźniając pojawienie się sygnału w stosunku do reszty prezentowanego zestawu. Dzięki temu sygnał pojawiał się zupełnie niespodziewanie dla osoby badanej na tle występujących już w polu wzrokowym innych elementów prezentowanego zestawu. Sygnały były w tym badaniu pojedynczymi, specyficznymi dla całości stymulacji bodźcami; pytano np. o zieloną literę „X”, gdy w zestawie nie było żadnych innych zielonych liter. Yantis i Jonides wykazali, że czas potrzebny na identyfikację takiego sygnału jest niezależny od liczby bodźców stanowiących tło zestawu. Prowadząc badania w tym samym paradygmacie, Theeuwes (1994) stwierdził jednak, iż nie zawsze nagle pojawienie się bodźca w polu wzrokowym jest w stanie skutecznie przyciągnąć uwagę. Na przykład identyfikacja nagle pojawiającego się sygnału może być opóźniona, jeśli w polu wzrokowym tkwi bardzo intensywny, choć statyczny element. Na podstawie tych wyników Theeuwes sformułował model uwagi podążającej za najbardziej znaczącą, czy też dystynktywną, właściwością prezentowanej stymulacji: Według tego modelu w polu uwagi najpierw wyodrębniamy element charakteryzujący się kombinacją najbardziej wyrazistych cech. W przypadku jednoczesnej prezentacji całego zestawu bodźców jest to obiekt charakteryzowany przez najbardziej dystynk-
200
Rozdział 5. Uwaga i świadom ość
tywną właściwość. Jeśli więc kolor jest najbardziej wyróżniającą się właści wością w polu wzrokowym, to nawet nagłe pojawienie się nowego bodźca nie jest w stanie odciągnąć uwagi od przetwarzania bodźca charakteryzującego się taką właśnie cechą dystynktywną. Jednak zazwyczaj pojawienie się nowego bodźca w polu wzrokowym jest wystarczające, aby nowy element nabrał cech dystynktywnych. Dotyczy to nie tylko sygnałów, lecz również dystraktorów: jeśli mają one charakter dynamiczny (np. nagle pojawiają się w polu wzrokowym), wywołują znacznie większą interferencję niż statyczne bodźce zakłócające (Driver, Baylis, 1989). Dwufazowy, równoległo-szeregowy model przeszukiwania pola wzrokowe go, autorstwa Treisman (1993, 1998), jest obecnie uznawany przez większość badaczy uwagi. W modelu tym wyróżnia się opartą na procesach równoległych fazę kodowania, z ewentualną segregacją pola wzrokowego przy wykorzystaniu cech priorytetowych, oraz opartą na procesach szeregowych fazę integracji cech niepriorytetowych w obiekt, będący celem przeszukiwania. Prowadzone obecnie badania zmierzają do ustalenia, które właściwości bodźców mają zdolność do przyciągania uwagi. Bez wątpienia właściwością priorytetową jest ruch obiektu w polu wzrokowym, szczególnie pewna odmiana ruchu, jaką jest nagłe pojawienie się bodźca - niezależnie od tego czy jest nim sygnał, czy dystraktor. Także inne cechy, w szczególności kolor, ale także umiejscowienie obiektu w głębi lub w tle, mogą uzyskać status cech priorytetowych, jeśli pozostaną wystarczająco intensywne.
5.2.3. Teorie przedłużonej koncentracji Trwała, przedłużona w czasie uwaga to synonim czujności (vigilance), rozu mianej jako „stan gotowości na wykrycie, rozpoznanie i reakcję na niezwykle subtelne zmiany w środowisku, zachodzące przypadkowo w dłuższym odcinku czasu” (Mackworth, 1957, s. 389-390). Wiadomo, że gdy uwaga musi być sku piona przez dłuższy czas na jednym lub kilku źródłach informacji, a odbierane bodźce są wydarzeniami rzadkimi i nieprzewidywalnymi, w pewnym momencie zaobserwujemy spadek czujności. Przejawia się to obniżoną liczbą poprawnych rozpoznań sygnału, notowanych w dłuższym okresie wykonania jakiegoś zadania. Mackworth (1950) wykryła, że liczba prawidłowych detekcji sygnału znacznie się obniża już po upływie pół godziny; dalszy spadek jest już wol niejszy, niezależnie od długości trwania testu (ryc. 5.5). Podobne wyniki uzys kano badając procesy monitorowania bodźców wzrokowych w innych ekspery mentach, naśladujących realne sytuacje życiowe, takie jak kontrola jakości produkcji przemysłowej lub nadzór nad operacjami chirurgicznymi. Badania nad spadkiem czujności uwagi długo koncentrowały się wokół problemu ustalenia empirycznych wskaźników tego procesu. W eksperymencie Parasuramana i Daviesa (1976) badanym polecono w czasie 45-minutowej ekspozycji stymulacji wzrokowej rozróżniać bodźce ze względu na ich jasność. Sygnałem był bodziec jaśniejszy od reszty bodźców. Liczba prawidłowych rozpoznań zmniejszała się wraz z czasem trwania zadania. Największą różnicę obserwowano między pierwszym a drugim 15-minutowym blokiem prób, przy czym spadek czujności był'mniejszy w przypadku osób, którym sygnały
201
5.2. Teorie uw agi środ o w isko i ludzka skuteczność 0
5
10
15
20
minuty od rozpoczęcia półgodzinnego interwału
Ryc. 5.5. Procent niezauważonych sygnałów w teście zegara Mackworth w zależności od długości trwania testu (za: Mackworth, 1950).
^ prezentowano częściej, w porównaniu do osób, które musiały wykrywać sy gnały prezentowane rzadziej. Parasuraman i Davies wykazali także, że czas reakcji na krytyczny sygnał wzrasta o ok. 100 milisekund na przestrzeni l 45-minutowego okresu badania. Wskaźnikiem spadku czujności jest również wzrost odchyleń od średniego czasu reakcji, co wykryli Thackray, Jones i Touchl stone (1973). I Zachowanie ludzi w warunkach wymagających przedłużonej koncentracji i uwagi analizuje się zazwyczaj w języku teorii detekcji sygnałów (ramka 5.2). f Przewiduje ona, że idealny obserwator zauważy każdy sygnał (reakcja typu trafienie) i zawsze zignoruje szum lub dystraktor (prawidłowe odrzucenie), f Obserwator może jednak popełnić jeden z dwóch rodzajów błędu, czyli zareagować na szum lub dystraktor (fałszywy alarm, FA) lub zignorować sygnał (błąd ominięcia, OM). Dobre wykonanie zadania wymagającego selekcji oznacza, że obserwator dobrze odróżnia sygnały od szumu i dystrakcji; świadczy o tym duża v liczba trafień (a zatem mała liczba błędów ominięcia) i mała liczba fałszywych ; alarmów. Teoria przewiduje ponadto, że popełniając błędy obserwator może \ przyjąć różne strategie wykonania zadania. W szczególności może skłaniać się [ raczej ku fałszywym alarmom niż ominięciom, lub odwrotnie. Pierwsza strategia | może być korzystna wtedy, gdy konsekwencje wzniecenia fałszywego alarmu są I mniejsze niż konsekwencje ominięcia ważnego sygnału. Odwrotna strategia
202
Rozdział 5. Uwaga i świadom ość
pojawia się wtedy, gdy konsekwencje ominięcia sygnału nie są dramatyczne, natom iast konsekwencje wywołania fałszywego alarmu mogą być nader dotkliwe. Przyjmuje się, że każdy obserwator ustawia sobie odpowiedni próg wyzwalania reakcji, zwany też progiem reaktywności lub kryterium decyzyjnym: im niższy, tym większe prawdopodobieństwo zauważenia sygnału, ale też tym większe ryzyko fałszywego alarmu. Im próg wyzwalania reakcji wyższy, ryzyko popełnienia błędu typu FA maleje, ale za to rośnie ryzyko błędu typu OM. W badaniach nad przedłużoną koncentracją wykazano, że wraz z upływem cza su maleje liczba prawidłowych detekcji i liczba fałszywych alarmów, a zwiększa się liczba ominięć, co wynika z podwyższenia progu reaktywności (Parasuraman, Davies, 1976). Ponieważ jednak liczba fałszywych alarmów w zadaniach na czujność uwagi jest relatywnie niewielka (Baddeley, Colquhuon, 1969; Parasuraman, Davies, 1976), więc wraz z upływem czasu obserwuje się po prostu wzrost sumarycznej liczby błędów. Ramka 5.2
Teoria detekcji sygnałów
Teoria detekcji sygnałów (Signal Detection Theory, SDT) powstała jako model procesu odróżniania sygnału od szumu (Green, Swets, 1966). Początkowo wyko rzystywano ją przede wszystkim w naukach technicznych, np. do analizy transmisji sygnałów radiowych i zakłóceń spowodowanych elektromagnetycznym „tłem”. Później TDS znalazła zastosowanie w odniesieniu do żywych systemów wykrywa nia sygnałów. W psychologii podstawowe założenia i pojęcia tej teorii wykorzystuje się w badaniu uwagi, spostrzegania, pamięci i podejmowania decyzji. Wyobraźmy sobie, że terapeuta ocenia ryzyko podjęcia przez pacjenta próby samobójczej. Pewne reakcje i wypowiedzi pacjenta sygnalizują zagrożenie, ale równie dobrze mogą być mylącym „szumem informacyjnym”. Terapeuta może w tej sytuacji zareagować na dwa sposoby, to znaczy stwierdzić ryzyko samobójstwa lub je wykluczyć. W obu przypadkach terapeuta może mieć rację lub się pomylić. Jeśli wykryje istniejące ryzyko samobójstwa, zaliczymy mu trafienie (hit), a jeśli pra widłowo ryzyko takie wykluczy, powiemy, że zastosował poprawne odrzucenie (correct rejection). Gdy terapeuta stwierdzi zagrożenie, którego nie ma, popełni błąd fałszywego alarmu (false alarm, FA), a gdy nie zauważy istniejącego ryzyka, popełni błąd ominięcia (miss, OM). Teoria przewiduje więc cztery możliwe skutki działalności terapeuty, podobnie jak każdego systemu wykrywającego sygnały: trafienie, poprawne odrzucenie, fałszywy alarm i ominięcie. Obserwator, np. psy cholog eksperymentalny, ma pełną wiedzę na temat proporcji każdego z tych czterech skutków w stosunku do rzeczywistej liczby działających na system sygna łów i bodźców innego rodzaju (zakłóceń, szumów). Terapeuta podejmujący decyzję działa w warunkach niepewności, która wy nika z działania szumu. Szum wewnętrzny wynika z zawodności procesów poznaw czych terapeuty, z rozmaitych przekłamań, błędów i tendencji w procesie stawiania diagnozy, z losowych wahań koncentracji uwagi, z pojawiających się niekontrolo wanych myśli lub skojarzeń itp. Szum zewnętrzny wynika z braku jednoznaczności w klinicznym obrazie zachowań poprzedzających samobójstwo i z zawodności kryteriów, pozwalających podjąć racjonalną decyzję. Prawdziwa depresja może
5.2. Teorie uw agi
203
dawać nietypowe objawy, a z drugiej strony całkiem „niedepresyjne” zachowanie pacjenta może sugerować zagrożenie. Wszystko to może zmylić mało doświad czonego terapeutę. Sygnały, zakłócenia i szumy docierające do systemu układają się w pewien wzorzec, który skłania decydenta do reakcji TAK lub NIE. Na razie nie ma jeszcze żadnej jawnej decyzji, jest tylko stan wewnętrzny systemu; w przypadku terapeuty są to jego doznania sensoryczne, myśli, przywołane elementy wiedzy. Rycina 5.6a
stan wewnętrzny
Ryc. 5.6a. Rozkład prawdopodobieństwa reakcji NIE i TAK w zależności od wewnętrznego stanu systemu wykrywającego sygnały.
pokazuje rozkład prawdopodobieństwa reakcji NIE (nie ma ryzyka samobójstwa), jak też analogiczny rozkład prawdopodobieństwa reakcji TAK (jest zagrożenie). Reakcja NIE jest najbardziej prawdopodobna przy stanie wewnętrznym N, ale może się też pojawić przy innych stanach wewnętrznych. Reakcja TAK jest najbardziej prawdopodobna przy stanie wewnętrznym T, ale może się pojawić kiedy indziej. Oba rozkłady prawdopodobieństw przyjmują kształt krzywej Gaussa. Jak widać, rozkłady te częściowo na siebie zachodzą, co oznacza, że w pewnych stanach wewnętrznych możliwa jest zarówno reakcja TAK, jak i reakcja NIE. Nakładanie się obu rozkładów sprawia, że system jest podatny na popełnianie błędów. Im bardziej rozkłady wzajemnie się rozchodzą, tym niższe ryzyko błędu. Zdarza się to wtedy, gdy sygnał jest bardzo dobrze odróżnialny od szumu, np. ze względu na swą intensywność, jednoznaczność lub kontrast w stosunku do tła. Jeśli natomiast sygnał jest trudno odróżnialny od szumu (np. dźwięk „c” od dźwięku „cis” dla kogoś nieuzdolnionego muzycznie), oba rozkłady w znacznym stopniu na siebie nachodzą, a ryzyko pomyłki wzrasta. Obiektywna odróżnialność sygnału od szumu decyduje o tym, że oba rozkłady mają swoje wartości modalne w dużym wza
204
Rozdział 5. Uwaga i świadomość
jemnym oddaleniu. Może też być tak, że wartości modalne znajdują się blisko siebie, ale odchylenia standardowe są stosunkowo nieduże. Odpowiada to sytuacji, w której wprawdzie sygnał jest dość podobny do szumu, ale system dobrze odróżnia jedno od drugiego, bo jest czuły na subtelne różnice między sygnałem a szumem. Na przykład zawodowy muzyk łatwo odróżni dźwięk „c” od dźwięku „cis”, chociaż obiektywnie rzecz biorąc są to wartości bardzo do siebie podobne. Mamy wtedy dwa rozkłady leptokurtyczne, w niewielkim stopniu nakładające się na siebie. Zatem obiektywne własności stymulacji przekładają się na wewnętrzne stany systemu, a te - na poziom pewności decydenta co do tego, czy ma do czynienia z sygnałem czy szumem. Im wyższy poziom pewności, tym mniejszy zakres nakładania się rozkładów prawdopodobieństw. Im decydent mniej pewny, z czym ma do czynienia, tym bardziej rozkłady na siebie nachodzą, co zwiększa ryzyko pomyłki. Subiektywna pewność decydenta zależy zaś od stopnia obiek tywnego podobieństwa sygnałów i szumu (wartości modalne rozkładów położone są blisko lub daleko od siebie) oraz od sprawności samego decydenta (odchylenia standardowe rozkładów są duże lub małe). Zdolność decydenta do odróżniania sygnałów od szumu oddaje wskaźnik, oznaczony jako d ’ (od: discriminability). Wartość d' równa się różnicy między średnią rozkładu dla reakcji NIE a średnią rozkładu dla reakcji TAK, wyrażonej w jednostkach odchylenia standardowego, czyli w skali z. Jak wiadomo, stan dardowa skala z przekształca średnią arytmetyczną rozkładu normalnego w O(zero), a odchylenie standardowe w 1 (jeden). Zatem dystans między dwiema średnimi, wyrażony w skali z, wynosi tyle, ile odchyleń standardowych mieści się między jedną średnią a drugą. Gdyby oba rozkłady - dla reakcji NIE i TAK - w ogóle się od siebie nie różniły, dystans między średnimi byłby zerowy, a wartość d ’ = O, czyli system nie byłby w stanie odróżnić sygnału od szumu. Dystans równy trzem odchyleniom standardowym oznaczałby, że decydent idealnie rozróżnia sygnały od szumu, bo rozkłady prawie w ogóle na siebie nie nachodzą. W praktyce d’ przyj muje wartości między O a 3. Aby wyliczyć tę wartość, trzeba znać proporcję trafień (ile razy powiedziano TAK, gdy sygnał był obecny) oraz proporcję fałszywych alar mów (ile razy powiedziano TAK, gdy sygnału nie było). Przypuśćmy, że w kon kretnym eksperymencie osoba badana trafiała w 92% przypadków, a w 14% popełniała błąd fałszywego alarmu (przykład za: Levine, Parkinson, 1994). Oznacza to np., że na 100 sygnałów 92 razy powiedziała TAK, a na 1000 przypadków działania szumu bądź dystrakcji osoba ta 140 razy również powiedziała TAK. Gdyby reakcje były przypadkowe, należałoby oczekiwać 50% trafień i 50% fałszywych alarmów. W podanym przykładzie proporcja trafień odbiega od przypadku na poziomie -0,42 (bo 0,50 - 0,92 = -0,42), a proporcja fałszywych alarmów - na poziomie 0,36 (0,50 - 0,14 = 0,36). Według wzoru: d’ = zN|E - Zjaki czyli d ’ to różnica między średnią dla NIE a średnią dla TAK wyrażona w skali z. Z tabeli rozkładu normalnego odczytujemy, że 36% powyżej średniej (o tyle od biega od przypadku proporcja FA) odpowiada wartości z = 1,08. Z kolei 42% poniżej średniej (o tyle odbiega od przypadku proporcja trafień) odpowiada war tości z = -1,41. Podstawiając obie wartości do wzoru otrzymujemy wynik:
5.2. Teorie uwagi
205
d’ = 1,08- (-1,41) = 1,08 + 1,41 = 2,49. Wynik ten oznacza dość dobrą rozróżnialność sygnału od szumu, co może wynikać z obiektywnie dużej różnicy między nimi lub z wrażliwości obserwatora. O zachowaniu systemu wykrywającego sygnały decyduje nie tylko rozkład prawdopodobieństw, ale również przyjęta strategia decyzyjna. Na przykład tera; peuta może uznać, że w sytuacji zagrożenia życia lepiej na wszelki wypadek zareagować na bardzo nikłe ryzyko samobójstwa, niż zlekceważyć prawdziwe za grożenie. Będzie wówczas skłonny raczej popełnić fałszywy alarm niż błąd ominięcia. Ale decydent może też przyjąć odwrotną strategię. Na przykład tera peuta, aby nie „płoszyć” pacjenta lub niczego mu nie sugerować, może zignorować sygnały zagrożenia jako zbyt słabe, albo może uznać, że ewentualny fałszywy alarm byłby emocjonalnie bardzo kosztowny dla pacjenta lub jego rodziny. De; cydent jest w takiej sytuacji skłonny popełnić raczej błąd ominięcia niż fałszywego ‘ alarmu. Strategia decydenta zależy od miejsca, w którym ustanowi on kryterium : rozróżniania między sygnałem a szumem (ryc. 5.6b). Każdy bodziec słabszy od
szumem. W sytuacji, gdy rozkłady prawdopodobieństw choć trochę się na siebie nakładają, nie ma możliwości uniknięcia jakichkolwiek błędów. Można jedynie przyjąć, że tendencja do popełniania fałszywych alarmów jest mniej szkodliwa od tendencji do popełniania błędów ominięcia, lub odwrotnie. W każdym razie, dopiero w momencie ustanowienia kryterium możliwa jest jawna reakcja typu TAK lub NIE;
206
Rozdział 5. Uwaga i świadomość
wcześniej można było mówić jedynie o stanach wewnętrznych systemu i zwią zanych z tym prawdopodobieństwach wystąpienia reakcji określonego rodzaju. Kryterium można zatem zdefiniować jako minimalny poziom pewności decydenta, że sygnał się pojawił i należy na niego zareagować. Wskaźnik przyjętej przez osobę badaną strategii, czyli [3 (beta), można wyliczyć z empirycznie stwierdzonej proporcji trafień i fałszywych alarmów. Trzeba w tym celu odczytać wartość funkcji rozkładu normalnego, odpowiadającą wcześ niej wyliczonym wartościom na skali z, osobno dla rozkładu NIE i TAK. Każdej wartości na osi odciętej, traktowanej jako zmienna niezależna, odpowiada określo na wartość rzędnej, reprezentującej zmienną zależną. Gdyby to były wartości realne, oś pionowa reprezentowałaby empiryczną częstość występowania od powiednich wartości na osi poziomej. W przypadku rozkładu teoretycznego, gdzie na osi poziomej mamy skalę z, oś pionowa informuje nas o prawdopodobieństwie występowania danych wartości. Na przykład prawdopodobieństwo wystąpienia wartości z = 0 (czyli wartości średniej arytmetycznej, tożsamej z medianą i modalną) wynosi 0,3989, prawdopodobieństwo wystąpienia wartości z = 1,08 jest równe 0,2227, a prawdopodobieństwo wystąpienia wartości z = 1,41 wynosi 0,1476. Dane te można odczytać z tabeli prawdopodobieństw pod krzywą rozkładu normalnego. Wzór na wskaźnik f3 to proporcja prawdopodobieństwa reakcji NIE do reakcji TAK, czyli: _
P (T A K )
P (N IE )
W omawianym przypadku ¡3 = 0,1476 : 0,2227 = 0,6628. Jest to wartość, która mówi nam, że osoba badana przyjęła strategię reagowania „na wszelki wypadek” woli „popełnić” fałszywy alarm niż ominąć sygnał, choć oczywiście zdarza się jej również to ostatnie. Wartości f3 mniejsze od 1 świadczą o takiej właśnie tendencji, podczas gdy wartości większe od 1 - o tendencji przeciwnej, czyli skłonności do unikania fałszywych alarmów, nawet kosztem ominięcia ważnego sygnału. Oczy wiście im bardziej wartość ¡3 odbiega od 1 w którąkolwiek stronę, tym silniejsza jest jedna lub druga tendencja. Gdy natomiast ¡3 = 1, system nie przejawia żadnej tendencji, czyli traktuje oba rodzaje błędów jako równie kosztowne. Wskaźniki d ’ i ¡3 są wzajemnie niezależne. System może cechować się dużą lub małą zdolnością do dyskryminacji sygnału od szumu (cT), ale nie zależy to w żaden sposób od przyjętego kryterium, a zatem również od tendencji do pre ferowania błędów FA lub OM. I odwrotnie - system może przyjąć jedną z dwóch strategii, czyli reagować tendencyjnie, a siła tej tendencji może być mała lub duża, lecz nie zależy to w żaden sposób od jego ogólnej sprawności w rozróżnianiu sygnałów od szumu. Dlatego c/’ informuje nas o ogólnej sprawności systemu jako detektora sygnałów, a [3 - o przyjętej przezeń strategii działania.
Idealny obserwator ma niższe kryterium decyzyjne dla sygnałów prawdo podobnych niż dla bodźców mniej prawdopodobnych. Wzrost prawdopodobień stwa pojawienia się sygnału powoduje więc obniżenie się tego kryterium, a tym samym przyczynia się do wzrostu prawdopodobieństwa wystąpienia popraw nych odpowiedzi, choć zwiększa przy tym ryzyko wystąpienia fałszywych alarmów (Baddeley, Coląuhuon, 1969; Broadbent, Gregory, 1965; Green, Swets,
5.2. Teorie uwagi
j
207
1966; Murrell, 1975; Parasuraman, Davies, 1976; Williges, 1971, 1973). W eks perymencie Baddeleya i Colquhuona (1969) osobom badanym pokazywano serię kół o określonej średnicy, a ich zadaniem było zauważenie koła większego L od innych. Prawdopodobieństwo pojawienia się sygnału (większe koło) zostało określone w przedziale od 0,02 do 0,36 dla pięciu grup eksperymentalnych j- (czynnik międzygrupowy). Baddeley i Colquhuon stwierdzili, że wraz ze wzrostem prawdopodobieństwa pojawienia się sygnału rosła zarówno częstość l prawidłowych odpowiedzi (od 0,34 do 0,52), jak i częstość fałszywych alarmów (od 0,001 do 0,05). Colquhuon i Baddeley (1964, 1967) pokazali również, że i oczekiwania odnośnie do prawdopodobieństwa pojawienia się sygnału, narzu ta cone badanym podczas sesji treningowej, mają wpływ na spadek czujności I uwagi w trakcie sesji testowej. Spadek ten był znacznie większy w przypadku osób, którym pokazywano sygnały częściej podczas treningu niż w czasie regularnej sesji. Spadek prawdopodobieństwa pojawienia się sygnału w stosun; ku do sesji treningowej uśpił więc czujność osób badanych. Z kolei Craig (1980) ustalił, że badani informowani o prawdopodobieństwie pojawiania się bodźców s wykazywali się mniejszym spadkiem czujności uwagi, niż badani pozbawieni tej informacji. MacFarland i Halcomb (1970) oraz Craig i Colquhuon (1975) sugeI rują wręcz, że główną przyczyną spadku czujności uwagi mogą być nief adekwatne oczekiwania badanych odnośnie do prawdopodobieństwa wystąpie! nia sygnału, wynikające z uprzednich, błędnych doświadczeń. Powyższe wyniki badań są zgodne z koncepcją czujności uwagi sformułop waną przez Bakera (1963). Istotną rolę pełnią w niej oczekiwania osób badanych co do wielkości przedziału czasowego, w którym musi pojawić się i sygnał. Baker sugeruje, że zależność między subiektywnym prawdopodobień\ stwem pojawienia się sygnału a wielkością przedziału czasowego, w którym ; pojawia się ów sygnał, jest krzywoliniowa, w postaci odwróconego „U”. Począt kowo wzrost wielkości interwału czasowego na jeden sygnał powoduje zwięk szenie oczekiwań co do jego pojawienia się, czyli wzrost subiektywnego prawf dopodobieństwa zaistnienia sygnału. Jednak dalszy wzrost szerokości przeŁ działu czasowego sprawia, że subiektywne prawdopodobieństwo sygnału maleje (Baker, 1959; Deese, 1955). W każdym jednak przypadku badany oczekuje pojawienia się sygnału mniej więcej w takim odstępie czasowym, w jakim pop przedni wykryty przez niego sygnał pojawił się po sygnale jego z kolei poprze■ dzającym (Baker, 1963). Dodatkowo Baker (1959) ustalił, że ci badani, którzy ; byli najbliżej prawdy w subiektywnej ocenie prawdopodobieństwa sygnału, notowali także najmniejszy spadek w zakresie czujności uwagi, a Baker i Hara s' bedian (1962) wykazali, że badani poinformowani o szerokości interwału cza sowego notowali znacznie mniejszy spadek czujności uwagi (13%) w porów naniu do badanych pozbawionych tej wskazówki (20%). Wyniki eksperymentów sugerują także, że przedłużoną koncentrację uwagi i można poprawić poprzez trening. Binkford i Loeb (1966) odkryli, że liczba fałszywych alarmów zmniejsza się znacząco w trzech pierwszych sesjach wy konania zadania na rozpoznawanie dźwięków w wyniku nabywania wprawy ! przez badanych. Kerkhof, van der Schaaf i Korving (1980) ustalili natomiast, że ; liczba błędów ominięcia obniża się sukcesywnie w ciągu pierwszych pięciu sesji 1 wykonania. W kolejnych sesjach, po okresie nabywania wprawy, zarówno liczba i fałszywych alarmów, jak i liczba ominięć utrzymywała się na stałym poziomie.
208
Rozdział 5. Uwaga i świadom ość
Z kolei Moray, Fitter, Ostry, Favreau i Nagy (1976) oraz Ostry, Moray i Marks (1976) wykazali, że trening pozwala zredukować efekt spadku czujności uwagi także w zadaniach na przedłużone monitorowanie sygnałów w paradygmacie podążania. Spadek czujności uwagi może też wynikać ze zmniejszenia się wrażliwości na prezentowane bodźce, jeśli te pojawiają się w danym interwale czasowym bardzo rzadko lub bardzo często. Mackworth i Taylor (1963) wykazali, że wraż liwość na sygnały dźwiękowe maleje w miarę, jak wydłużeniu ulega przedział czasu, w którym pojawia się pojedynczy sygnał. Z kolei Jerrison i Pickett (1964) pokazali, że badani testem zegara (paradygmat 5.3) charakteryzują się wysoką i stałą liczbą prawidłowych rozpoznań (90%), gdy sygnały pojawiają się z często tliwością 5 na min. Kiedy proporcja ta wzrosła do 30 sygnałów na minutę, liczba rozpoznań zmalała aż trzykrotnie. Podobnie było w przypadku, gdy proporcja liczby sygnałów do czasu trwania zadania zmalała do 1 sygnału na 2,5 min. (Mackworth, 1948,1950). Wyniki te wielokrotnie potwierdzono (Loeb, Binford, 1968; Parasuraman, Davies, 1976; Warm, 1977). Co ciekawe, efekt spadku czujności uwagi może się nie ujawnić w złożonych zadaniach na monitorowanie sygnałów (Adams, 1963; Frankman, Adams, 1962; Parasuraman, 1976, 1983), a więc w zadaniach, które nie są aż tak monotonne i nudne, jak zwykłe testy czujności. Według Daviesa i Parasuramana (1982) wyjaśnienie efektu spadku koncentracji uwagi może się kryć w analizie poziomu pobudzenia (aktywacji) osób badanych w trakcie wykonywania zadania na czujność uwagi. Poziom wykonania każdego zadania zależy bowiem od aktual nego stanu energetycznego organizmu (Yerkes-Dodson, 1908; Corcoran, 1965; Eysenck, 1982; Nęcka, 1994). Prawo Yerkesa-Dodsona opisuje omawianą za leżność jako krzywoliniową w postaci odwróconego „U”. Poziom wykonania zadania jest najlepszy przy średnim poziomie pobudzenia, a daleki od optymal nego zarówno przy niskiej, jak i wysokiej aktywacji. Potwierdzenie słuszności prawa Yerkesa-Dodsona znaleźć można również w odniesieniu do czujności uwagi (Davies, Tune, 1969). W trakcie długich, nudnych i monotonnych zadań na czujność uwagi można początkowo zaobserwować wzrost poziomu aktywacji, do czego przyczynia się relatywna nowość dostarczanej stymulacji, nowość sytuacji eksperymentalnej, specyficzna sytuacja poddania się badaniom itp. Pobudzenie osób badanych osiąga wtedy z reguły poziom optymalny, co sprawia, że zadanie na czujność uwagi jest wykonywane na bardzo wysokim poziomie, nawet do 100% prawidłowych detekcji (Baker, Harabedian, 1962). Wkrótce jednak omawiane zadanie przestaje być ekscytujące, co utrudnia utrzymanie optymalnego pozio mu pobudzenia, koniecznego do zapewnienia czujności uwagi. W konsekwencji obserwuje się obniżenie poziomu wykonania zadania, świadczące o spadku czujności uwagi. Koncepcję Daviesa potwierdzają także wyniki badań psycho fizjologicznych. Spadkowi poziomu wykonania zadań na czujność towarzyszyło z reguły obniżenie się poziomu aktywacji osób badanych, mierzonej aktywnoś cią fal mózgowych EEG (Daniel, 1967; Davies i Krkovic, 1965), czy rytmem pracy serca (Davies, 1964; Stern, 1964), choć przyznać należy, że kilka ekspe rymentów dostarczyło zgoła odmiennych rezultatów. Dokonując przeglądu i metaanalizy badań nad związkami cech tempera mentu z poziomem wykonania zadań na czujność uwagi, Koelega (1990)
5.2. Teorie uw agi
209
stwierdził, że związek ten uzależniony jest od poziomu złożoności zadania, a więc „zdolności” zadania do zwiększania poziomu pobudzenia, rozumianego jako niespecyficzna energetyzacja organizmu (Eysenck, 1982). W szczególnie monotonnych i łatwych zadaniach na czujność uwagi lepiej radzą sobie in trowertycy, których charakteryzuje chronicznie podwyższony poziom pobudze nia kory mózgowej, podczas gdy w bardziej złożonych i stymulujących zada niach na monitorowanie sygnałów lepiej wypadają, charakteryzujący się zde cydowanie niższym poziomem aktywacji, ekstrawertycy (Eysenck, 1967). Tak więc efekt spadku czujności uwagi może zależeć nie tylko od pobudzenia chwi lowego wywołanego przez samo zadanie, ale także pobudzenia konstytucjonal nego, związanego z biologicznie zdeterminowanymi cechami temperamentu (Eysenck, 1967; Eysenck, 1982). Efekt spadku czujności uwagi jest jednym z lepiej poznanych zjawisk z za kresu uwagi selektywnej. Jego opis w terminach teorii detekcji sygnałów SDT Greena i Swetsa (1966) jest kompletny, zaś próby jego wyjaśnienia hipoteza mi subiektywnego prawdopodobieństwa Bakera (1963) czy zmieniającej się aktywacji Daviesa i Parasuramana (1982) wydają się wiarygodne i dobrze udokumentowane wynikami badań. W przyszłości badania nad tym aspektem selektywnej uwagi będą się prawdopodobnie koncentrować na różnicach indywidualnych co do zakresu i tempa spadku czujności (Eysenck, 1982; Koelega, 1990).
5.2.4. Teorie podzielności Już najwcześniejsze badania nad selektywnością, prowadzone w paradygmacie dychotycznej prezentacji bodźców (paradygmat 5.1), były w gruncie rzeczy ba daniami nad podzielnością uwagi. Od osób badanych wymaga się bowiem dzielenia uwagi na dwa zadania w najtrudniejszej dla nich sytuacji, gdy wedle instrukcji jedno z zadań polega na odrzuceniu informacji z jednego z kanałów. Trudno przecież przypuszczać, by zgodne z instrukcją powstrzymanie się od przetwarzania informacji ignorowanych, co jest istotą badań w paradygmacie podążania, nie wymagało jakiegokolwiek wysiłku mentalnego. Pierwsze badania nad podzielnością uwagi prowadzono więc niemal wyłącznie w tym właśnie paradygmacie (Broadbent, 1952; Allport, Antonis, Reynolds, 1972; Ninjo, Kahneman, 1974). Donald Broadbent (1952, 1954) początkowo bardziej intereso wał się wykonywaniem w tym samym czasie dwóch zadań (mówienie i słuchanie; jednoczesne słuchanie) niż koncentracją na jednym z nich. Doszedł zresztą do wniosku, że efektywność mechanizmów selekcji informacji w warunkach ko niecznej podzielności uwagi jest bardzo niska, a dalsze badania w paradygmacie podążania prowadził z użyciem instrukcji odrzucania jednego z dwóch prze kazów. Zdaniem Drivera (2001) Broadbent niesłusznie narzucił badaczom uwagi przekonanie o tym, że skuteczna analiza i selekcja informacji musi być jednokanałowa, jednak przekonanie to było na tyle silne, że przez długi czas hamowało podjęcie badań nad przetwarzaniem wielokanałowym. Pytanie o możliwość równoległej selekcji informacji w zakresie dwóch różnych czynności poznawczych podjęła Bernstein wraz ze współpracownikami (Bernstein, 1970; Bernstein, Edelstein, 1971; Bernstein, Clark, Edelstein, 1969).
210
Rozdział 5. Uwaga i świadom ość
Autorkę nurtowało pytanie, czy możemy widzieć i słyszeć w tym samym czasie bez ponoszenia kosztów wykonywania tych dwóch czynności jednocześnie. Wszystkie rezultaty jej badań świadczyły o pełnej niezależności obu czynności. Okazało się ponadto, że jeśli obie modalności przetwarzania informacji, czyli wzrokowa i słuchowa, dotyczą tego samego zadania, informacja słuchowa skraca czas reakcji na jednocześnie prezentowany bodziec wzrokowy. Podobne wyniki uzyskał potem Duncan (1984): jednoczesne podjęcie dwóch różnych decyzji selekcyjnych w odniesieniu do tego samego obiektu nie wymagało ja kichkolwiek kosztów poznawczych. Na podstawie uzyskanych przez siebie wyników, a także podobnych danych zgromadzonych przez innych badaczy (Eriksen, Spencer, 1969; Ostry, Moray, Marks, 1976), Duncan (1984, 1985) sformułował koncepcję uwagi ukierunkowanej na obiekt. Zgodnie z tą teorią podzielność uwagi w zakresie tego samego zadania, czy też w odniesieniu do tego samego obiektu, jest możliwa bez ponoszenia dodatkowych kosztów, np. wydłużenia czasu reakcji lub wzrostu liczby błędów. Wprawdzie wyników uzyskanych przez Bernstein, Duncana i innych nie był w stanie potwierdzić Pashler (1992; Fagot, Pashler, 1992), jednak dane empiryczne zgromadzone przez zwolenników koncepcji uwagi ukierunkowanej na obiekt świadczą wyraźnie przeciwko jednokanałowym teoriom filtra, co Bernstein szczególnie silnie akcentowała. Wykonywanie dwóch różnych czynności w tym samym czasie bez ponoszenia kosztów nie jest bowiem możliwe nawet w świetle teorii elastycznego filtra uwagi sformułowanej przez Johnstona (1978; Johnston, Heinz, 1978), chyba, że procesy poznawcze obsługujące te czynności są realizo wane na tym samym poziomie przetwarzania informacji, a pojemność pojedyn czej bramki jest wystarczająca dla analizy wszystkich informacji potrzebnych dla wykonania obu czynności, co jest praktycznie niemożliwe. W pierwszym ze swych eksperymentów Allport, Antonis i Reynolds (1972) prosili osoby badane o powtarzanie fragmentów prozy w paradygmacie prezen tacji dychotycznej, a następnie przedstawiali im listę wyrazów, z których połowa pokrywała się ze słowami, jakie pojawiły się wcześniej w kanale odrzucanym, połowa zaś była zupełnie nowa. Liczba poprawnie rozpoznanych wyrazów oscylowała z reguły wokół poziomu przypadku (50%), co potwierdza wyniki uzyskane przez Broadbenta (1952). W drugim eksperymencie słowa pojawiające się uprzednio w kanale odrzucanym prezentowano wizualnie, a w trzecim zastąpiono je obrazkami. Wskaźnik błędów obniżył się w drugim badaniu do 30%, a w badaniu trzecim - do 10%. Jedna z sześciu osób badanych w ekspe rymencie trzecim nie popełniła żadnego błędu rozpoznania, a więc nie poniosła żadnych kosztów jednoczesnego wykonywania dwóch czynności: powtarzania prozy i zapamiętywania obrazków. Allport i współpracownicy stwierdzili na tej podstawie, że w eksperymencie pierwszym badani mieli do czynienia z filtro waniem informacji akustycznych i zachowywali się zgodnie z przewidywaniami jednokanałowego modelu filtra uwagi (Broadbent, 1957, 1958), podczas gdy w drugim i trzecim badaniu zastąpienie sensorycznego kanału akustycznego kanałem wizualnym spowodowało receptoryczne rozdzielenie dwóch jedno cześnie wykonywanych zadań, przez co osoby badane zaczęły radzić sobie równie dobrze, jak uczestnicy badań Bernstein i współpracowników (Bernstein, 1970; Bernstein, Edelstein, 1971; Bernstein, Clark, Edelstein, 1969). Do uzys kania poziomu niemal 100% poprawności w rozpoznawaniu, oprócz zmiany
5.2. Teorie uw agi
211
kanału sensorycznego, konieczna była także zmiana sposobu kodowania nietrwałych reprezentacji umysłowych odbieranych bodźców z werbalnych na niewerbalne (obrazowe; zob. rozdz. 2.2). W ostatnim, czwartym eksperymencie studenci wyższej szkoły muzycznej powtarzali ze słuchu fragment prozy i grali z nut na pianinie. Nie zaobserwowano większych różnic w poziomie wykonania obu zadań między warunkiem wymuszonej podzielności uwagi a warunkiem zadań pojedynczych. Należy podkreślić, iż Allport, Antonis i Reynolds uważnie dobrali prezentowany materiał werbalny i niewerbalny: słowa pojawiające się w przekazie odrzucanym były rzadko używane, by zmniejszyć szanse przy padkowego ich odgadnięcia, a obrazki dobrano tak, aby zapamiętanie jednego szczegółu nie mogło stanowić o poprawnym rozpoznaniu całości. Z kolei ba dani studenci muzyki byli wystarczająco sprawni w manipulowaniu klawisza mi instrumentu, choć nie byli jeszcze uznanymi profesjonalistami w swojej dziedzinie. Na podstawie wyników swoich badań Allport (Allport, Antonis, Reynolds, 1972) sformułował multikanałową koncepcję selektywnej uwagi. Autor przyjął, że uwaga może funkcjonować jako zestaw wielu niezależnych kanałów, zawierających własne filtry i zdolnych do niezależnej selekcji informacji. Poje dynczy filtr funkcjonuje zgodnie z koncepcją selekcji źródła informacji Broadbenta, Treisman, Deutsch i Deutscha czy Johnstona. Gdy konieczna jest kon centracja na jakimś zadaniu czy też obiekcie, bez zarzutu może funkcjonować tylko jeden filtr uwagi. Im bardziej nieprzewidywalne wymagania ze strony jednocześnie wykonywanych zadań, i im większe ryzyko popełnienia błędu, tym bardziej prawdopodobna jest decyzja systemu poznawczego o przetwarzaniu szeregowym i jednokanałowym. W takich warunkach narzucona konieczność jednoczesnego wykonywania dwóch zadań zawsze będzie wiązać się z kosztami poznawczymi. Allport nie zgadza się jednak z twierdzeniami zwolenników kon cepcji jednego filtra uwagi, iż jednokanałowa forma analizy i selekcji informacji jest dla systemu poznawczego obligatoryjna. Wyników zgodnych z koncepcją Allporta dostarczył także Greenwald (1972; Greenwald, Shulman, 1973). Potwierdził on możliwość percepcyjnego filtrowania informacji w kanale odrzuconym przy całkowitym braku kosztów czasowych. Z kolei Salter (1973) polecił badanym jednoczesną koncentrację na obu przekazach werbalnych, prezentowanych po jednym do obu kanałów sen sorycznych. Mimo że przekaz priorytetowy powtarzano bardzo wiernie, także i drugi komunikat był przez osoby badane reprodukowany, wprawdzie już tylko fragmentarycznie, ale za to z zachowaniem jego formy lingwistycznej. Poziom wykonania zadania uzupełniającego był zależny od indywidualnej szybkości artykulacji, jednak samo wykonywanie tego zadania wskazywało na obecność funkcjonującego równolegle drugiego filtra uwagi. Przeglądu wyników podob nych badań dostarczył Allport (1980a). Rezultatów sprzecznych z koncepcją multikanałową dostarczyli z kolei Treisman i Davies (1973). Autorzy potwierdzili wprawdzie, że gdy zadania jed noczesne angażują dwie różne modalności sensoryczne (akustyczną i wizual ną), badani nie mają większych problemów z rozpoznawaniem obu kategorii sygnałów. Jeśli jednak instrukcja wymaga semantycznej integracji informacji należących do różnych modalności, zadania jednoczesne wykonywane są znacznie gorzej. Treisman i Davies stwierdzili więc, że w systemie poznawczym
212
Rozdział 5. Uwaga i świadomość
może istnieć wiele kanałów sensorycznych wyposażonych w filtry funkcjonujące zgodnie z zasadą „wszystko albo nic”, jednak kanał semantyczny, wyposażony w filtr działający zgodnie z zasadą osłabiacza, może być tylko jeden. Kosztów jednoczesności, mimo rozdzielenia kanałów sensorycznych w obu zadaniach wykonywanych w tym samym czasie, nie udało się także wyeliminować Salthause’owi (1975) i Brebnerowi (1977). Biorąc pod uwagę wyniki powyższych badań, w nowej wersji swojej kon cepcji Allport (1980a) dokonał kilku uściśleń. Uznał, że niezależność kana łów selekcyjnych zależy od tego, czy dwa konkurencyjne zadania wymagają różnych receptorów, reprezentacji umysłowych i efektorów. Uwaga może dzia łać jako zbiór niezależnych, selekcjonujących informacje modułów. To, który moduł zostanie użyty, jest zdefiniowane na wejściu - przez rodzaj receptora, na wyjściu - przez rodzaj efektora, oraz w kanale przetwarzania - przez rodzaj reprezentacji umysłowej. Każdy moduł jest wyspecjalizowanym podsystemem, posiadającym własne zasoby, dzięki czemu możliwe jest równoległe przetwa rzanie informacji. Moduły są jednak ograniczone zarówno na wejściu, jak i na wyjściu. Tylko jeden moduł może przetwarzać informację wzrokową, jeden słuchową, dotykową itd. Podobnie, tylko jeden moduł może wypracować reakcję motoryczną, jeden - werbalną itd. Ograniczenia procesu selekcji informacji nie wynikają więc z obecności w systemie poznawczym jednego tylko filtra, lecz z limitowanej dostępności niezależnych modułów, wyposażo nych w odrębne mechanizmy filtrujące. Walka o moduły dokonuje się w ramach tej samej modalności. Wyniki badań McLeoda (1977) potwierdziły koncepcję modułową. Osoby badane wykonywały dwa zadania jednocześnie. W pierwszym eksperymencie zadania były zróżnicowane ze względu na kanał sensoryczny - wzrokowy lub słuchowy. W badaniu tym uwzględniono także dwa różne sposoby reagowania na bodźce. W warunku pierwszym oczekiwano reakcji werbalnych na bodźce akustyczne i reakcji motorycznych (naciśnięcie klawisza) na bodźce wizualne. W warunku drugim badani reagowali tylko motorycznie: jedną ręką na bodźce wizualne, a drugą na akustyczne. Liczba poprawnych reakcji w zadaniu z bodź cami wzrokowymi okazała się zależna od sposobu reagowania. Badani popełniali więcej błędów, gdy w drugim zadaniu należało reagować tylko moto rycznie, a mniej - gdy jedna reakcja była motoryczną, a druga werbalna. W drugim eksperymencie zadanie polegające na werbalnej reakcji na bodźce akustyczne zastąpiono przez zadanie arytmetyczne o dwóch stopniach trud ności. Poziom wykonania zadania z bodźcami wzrokowymi był niezależny od stopnia trudności problemu arytmetycznego rozwiązywanego „w pamięci”. Tym samym zasada niezależności modułów selekcyjnych, postulowana przez Allporta (1980), została potwierdzona. W przeciwieństwie do Allporta, Kahneman (1970) był zdania, że uwaga selektywna może skutecznie funkcjonować jedynie pod warunkiem szeregowe go, jednokanałowego przetwarzania informacji. Jeśli z konieczności dochodzi do równoległego przetwarzania w wielu kanałach, muszą pojawić się koszty jed noczesnego wykonywania kilku czynności, wynikające z wzajemnego zakłóca nia przebiegu współwystępujących procesów analizy i selekcji informacji (Kahneman, 1973). Wykorzystując obserwacje dotyczące owego zjawiska in terferencji (zob. rozdz. 6.1), autor sformułował teorię podzielności uwagi,
5.2. Teorie uw agi
213
ŹRÓDŁA POBUDZENIA (lęk, strach, gniew, podniecenie seksualne, napięcie mięśniowe, wpływ substancji pobudzających: leków, narkotyków itp.)
if-%. as-
W i^Si
ODPOWIEDZI
& Ryc. 5.7. Model zasobów uwagi wg Kahnemana (1973).
zwaną teorią zasobów (ryc. 5.7). Każdy system poznawczy dysponuje określoną ilością energii mentalnej, czy też mocy obliczeniowej, zwanej zasobami poznaw czymi. System wykorzystuje te zasoby, przeznaczając je na wykonanie poszcze gólnych procesów przetwarzania informacji; zjawisko to nosi nazwę alokacji zasobów. Każde zadanie poznawcze wymaga pewnego wysiłku, co wiąże się ze zużyciem pewnej ilości „paliwa mentalnego”, czyli zasobów. W systemie poznawczym trwa więc nieustanna walka równolegle zachodzących procesów o zasoby uwagi, a nadrzędny mechanizm selekcjonujący zachowuje się jak cen tralny dyspozytor energii (Nęcka, 1994, 1995; Szymura, Nęcka, 2004), roz dzielając ją pomiędzy poszczególne procesy. To do niego należy decyzja, czy
214
Rozdział 5. Uw aga i świadom ość
trzeba wszystkie siły skupić na jednym zadaniu, gdy wymagania płynące z jego strony pokrywają się z możliwościami energetycznymi systemu, czy też zasobów wystarcza jeszcze na podjęcie zadania konkurencyjnego. Walka o zasoby zawsze jednak wiąże się z interferencją między procesami poznawczymi i wynikającymi stąd kosztami jednoczesności przetwarzania. Według Kahnemana ilość zasobów przeznaczona do podziału w konkretnej sytuacji jest tylko częścią ogólnej puli zasobów. Część ta może ulec zwiększeniu, jeśli system jest w stanie pobudzenia. Liczne i różnorodne źródła pobudzenia przekładają się na jawne wskaźniki wysiłku i zaangażowania (np. reakcja elektrodermalna, szybkie tętno). W takich sytuacjach organizm mobilizuje zasoby, zbliżając się w swoich „wydatkach energetycznych” do całkowitej puli zasobów. Potwierdzenie teorii zasobów znalazł Kahneman w wynikach badań włas nych z wykorzystaniem paradygmatu podążania (Ninio, Kahneman, 1974). Zadaniem osób badanych było reagowanie na pojawiające się w kanale słucho wym nazwy zwierząt. W pierwszym warunku eksperymentalnym uczestnikom prezentowano dwa przekazy jednocześnie, z zadaniem skupienia się tylko na jednym z nich. W warunku drugim połowie osób badanych utrudniono zadanie polecono im monitorować dwa przekazy jednocześnie. Natomiast drugiej połowie badanych zadanie ułatwiono - prezentowano im tylko jeden przekaz. Okazało się, że wskaźniki wykonania zadania (czas reakcji, liczba błędów ominięcia) zdecydowanie się pogorszyły w przypadku konieczności dzielenia uwagi między dwa ważne przekazy, w porównaniu do warunków, gdzie wyma gano koncentracji tylko na jednym komunikacie. Natomiast poziom wykonania zadania wymagającego koncentracji uwagi na jednym z dwóch przekazów był tylko minimalnie gorszy od poziomu wykonania zadania, w którym prezento wano tylko jeden komunikat. W przypadku pojedynczego komunikatu niemal w ogóle nie było błędnych reakcji, podczas gdy - w warunku uwagi skupionej na jednym z dwóch przekazów - pojawiały się okazjonalne ominięcia. Na tej podstawie Ninio i Kahneman (1974) wywnioskowali, że w warun kach dychotycznej prezentacji muszą być przetwarzane - przynajmniej częś ciowo - oba przekazy. Gdyby filtr selekcjonujący informacje z obu kanałów był tylko jeden, musiałby w takim przypadku ponosić koszty czasowe, związane z przełączaniem się z jednego przekazu na drugi. Kosztów czasowych jednak nie obserwowano, co wyraźnie wskazywało na istnienie dwóch mechanizmów filtrujących. Wystąpiły natomiast koszty związane z obniżoną poprawnością, co sugeruje wzajemną zależność filtrów, spowodowaną walką o ograniczone za soby systemu. Jednak w kolejnych badaniach (Kahneman, 1975) nie udało się wykryć interferencji między dwoma procesami przetwarzania informacji, polegającymi na zapamiętaniu dwóch konkurencyjnych, jednocześnie prezento wanych list wyrazów. Udało się natomiast wykazać, że koszty czasowe związane z przetwarzaniem równoległym i z interferencją procesów selekcji informacji mogą być zredukowane, jeśli osobom badanym wcześniej dostarczy się infor macji o położeniu celów i dystraktorów (Kahneman, Treisman, Burkel, 1983). W efekcie Kahneman (1975) wycofał się z twierdzenia, że interferencja mecha nizmów filtrujących informacje jest koniecznym następstwem walki o ograni czone zasoby systemu (zob. Kahneman, Treisman, 1984; Kahneman, Treisman, Burkel, 1983), a Navon (1984, 1985) i Gopher (1992), uzupełniając koncepcję Kahnemana, stwierdzili, że wystąpienie interferencji jest uzależnione od „ła
5.2. Teorie uw agi
215
dunku mentalnego” zadań jednoczesnych, a więc od wymagań, jakie stawiają one systemowi poznawczemu. Należy jednak podkreślić, iż Kahneman falsyfikował teorię zasobów na podstawie badań, w których uczestnikom dostarczano różnych informacji zawsze tym samym kanałem sensorycznym. Były to np. dwa kanały akustyczne (Ninio, Kahneman, 1974) lub dwa kanały wizualne (Kahneman, Treisman, Burkel, 1983). W takich warunkach teoria modułów Allporta (1980a) również przewiduje wystąpienie zjawiska interferencji, choć upatruje jego przyczyn nie w walce o zasoby, lecz w zaangażowaniu jednego modułu do obsługi różnych czynności. W istocie więc wyniki uzyskane przez Kahnemana świadczą zarówno na korzyść teorii zasobów, jak i teorii modułów, zupełnie nie rozstrzygając między konkurencyjnymi wyjaśnieniami powstawania kosztów: interferencją strukturalną (Allport) i interferencją zasobową (Kahneman). W wielu badaniach (Allport, Antonis, Reynolds, 1972; Greenwald, Shulman, 1973; Kahneman, 1975; McLeod, 1977), w których stworzono możliwości redukcji efektu interfe rencji strukturalnej, efekt interferencji zasobowej nie ujawniał się. W konse kwencji, na podstawie wyników uzyskanych przez Kahnemana i innych badaczy problematyki alokacji zasobów uwagi, trudno jednoznacznie ustalić, w jakich warunkach może pojawić się zakłócenie związane z walką o zasoby, i czym zakłócenie to różni się od interferencji strukturalnej (zob. ramka 5.3). Ramka 5.3
Czy uwaga jest konstruktem jednorodnym? Nęcka (1995) oraz Szymura i Nęcka (2004) podjęli próbę rozstrzygnięcia kwestii czy uwaga jest systemem jednorodnym, czy też zbiorem kilku niezależnych subsystemów odpowiedzialnych za poszczególne funkcje uwagowe. Zgodnie z koncep; cjami parcjalistycznymi, uwaga jest systemem modułów - niezależnych struktur : uwagowych (Allport, Antonis, Reynolds, 1972; Allport, 1980), określonych przez wejście sensoryczne, wyjście efektoryczne oraz specyficzną reprezentację umy; słową. Moduły te mogą realizować niezależne od siebie funkcje uwagowe. Z kolei holiści (Kahneman, 1973; Navon, 1984, Gopher, 1992) sugerują jednorodność ; uwagi, która ich zdaniem miałaby się zajmować dystrybucją jednorodnych zasobów umysłowych systemu. Zgodnie z koncepcjami parcjalistycznymi zjawisko interfe{ rencji (wzajemnego zakłócenia) dwóch jednoczesnych procesów uwagowych wyi stępuje wtedy, gdy korzystają one z tych samych podzespołów modułów (np. tego 5samego wejścia sensorycznego; tzw. interferencja strukturalna). Natomiast zgodnie ? z koncepcjami holistycznymi interferencja pojawia się zawsze wtedy, gdy wymagania ze strony jednocześnie wykonywanych procesów przekraczają możliJ wości systemu (tzw. interferencja zasobowa). Stanowisko pośrednie między | parcjalizmem a holizmem reprezentują m.in. Hirst i Kalmar (1987). Uważają oni, | że uwaga może funkcjonować jako zestaw do pewnego stopnia niezależnych za| sobów specyficznych (związanych z wykonywaniem konkretnych procesów i poznawczych). Jeśli wymagania ze strony jednocześnie realizowanych różnych ? procesów nie przekraczają możliwości systemu w zakresie zasobów specyficznych, j które można przydzielić tym procesom, to uwaga funkcjonuje jako system nie| zależnych podsystemów zasobowych.
216
Rozdział 5. Uwaga i świadomość
Podczas wykonywania zadań jednoczesnych stwierdza się często występo wanie kosztów równoległości procesów przetwarzania informacji. Mogą one mieć charakter kosztów ogólnych, jeśli wykonywanie zadania drugiego, „doładowujące go”, pogarsza ogólnie wykonywanie zadania pierwszego lub odwrotnie. Koszty te mogą mieć również charakter bardziej specyficzny, jeśli jakakolwiek manipulacja poziomem trudności w zakresie jednego z zadań (zwłaszcza głównego) ma wpływ na wykonanie zadania drugiego. Brak jakichkolwiek kosztów wskazuje na nie zależność subsystemów odpowiedzialnych za wykonanie poszczególnych zadań. Występowanie kosztów specyficznych (silne zjawisko interferencji) przemawia za tezą o jednorodności uwagi. Występowanie kosztów ogólnych (słabe zjawisko interferencji) jest z kolei argumentem na korzyść stanowiska pośredniego w sporze o naturę uwagi. Inaczej mówiąc, podsystemy uwagi mogą być zupełnie niezależne, częściowo niezależne lub tworzyć jednorodny, zunifikowany organizm. W badaniach z użyciem testu selektywnej i podzielnej uwagi DIVA (opis testu w: Nęcka, 1994a; Szymura, 1999) stwierdzono występowanie kosztów ogólnych w łatwiejszej odmianie tego testu i kosztów specyficznych w jego trudniejszej wersji. Gdy zadanie selekcyjne testu DIVA wymagało zastosowania sensorycznego kryterium odróżniania sygnałów od szumu, a zadanie doładowujące polegało na kontroli jasności wolno zmieniających swoją luminację kwadratów, Nęcka (1995) stwierdził jedynie ogólny efekt jednoczesności zadań - badani popełniali więcej błędów selekcji w sytuacji zadania podwójnego niż wtedy, gdy zadanie selekcyjne miało monopol na zasoby uwagi. Gdy jednak test DIVA utrudniono poprzez zastosowanie semantycznego kryterium selekcji informacji oraz zmianę zadania doładowującego (kontrola opadania szybko poruszającej się linii), Szymura i Nęcka (2004) wykryli zarówno ogólne, jak i specyficzne koszty jednoczesności zadań poznawczych. Uczestnicy badań zawsze popełniali więcej błędów w zadaniu se lekcyjnym, gdy wykonywali je jednocześnie z zadaniem doładowującym niż wtedy, gdy wykonywali je pojedynczo. Jednak manipulacje w zakresie zadania selekcyj nego (m.in. zwiększanie liczby jednocześnie prezentowanych bodźców, obecność bodźców zakłócających) miały również wyraźny wpływ na poziom wykonania zadania doładowującego - im trudniejsze stawało się zadanie selekcyjne, tym gorzej badani kontrolowali ruch opadającej linii. Na tej podstawie autorzy formułują wniosek, że uwaga jest mechanizmem jednorodnym, co ujawnia się szczególnie mocno wtedy, gdy zadania jednoczesne są relatywnie trudne. W warunkach „opresji” system uwagi jak gdyby zaostrza swą politykę rozdziału zasobów. Natomiast w sytuacji, gdy zadania są łatwe, poszczególne składniki systemu uwagi uzyskują częściową, ale i łatwo odwracalną „suwerenność”.
Broniąc koncepcji zasobów uwagi, Navon i Gopher (1979) stwierdzili, iż obserwowany niekiedy brak spodziewanej interferencji między procesami se lekcji informacji wynika stąd, że jednocześnie wykonywane czynności nie konkurują o jedną pulę zasobów, jak to zakładał Kahneman (1973). Navon i Gopher uważają, że istnieje wiele niespecyficznych „zasobników” energii mentalnej. Dwa łatwe zadania, podobne w swoich wymaganiach, mogą prowa dzić do interferencji, gdyż dochodzi wtedy do walki o specyficzne zasoby, od powiedzialne za realizację podobnych czynności. Z kolei dwa różne, trudne
5.2. Teorie uwagi
217
zadania nie muszą wywoływać interferencji, jeśli nie dojdzie do współzawod nictwa między nimi o moc obliczeniową: ich realizacja może wymagać różnych, specyficznych pul zasobów. Ani dla Navona i Gophera, ani dla podzielających ich poglądy Wickensa (1984), czy Hirsta i Kalmara (1987), nie jest jednak jasne, jak dużą liczbą specyficznych pul zasobów dysponuje system poznawczy. Nie jest także wiadome, jaką pojemnością cechują się rezerwuary zasobów spe cyficznych. Pisanie na maszynie wydaje się angażować co najmniej dwa specy ficzne pola zasobów: pierwsze odpowiedzialne za rozpoznawanie liter i znaków, drugie - za generowanie reakcji motorycznych w postaci uderzania w odpowied nie klawisze (Gopher, Brickner, Navon, 1982). Być może jednak w czynności tej bierze również udział specyficzna pula zasobów, odpowiadająca np. za koordy nację psychomotoryczną lub inne jeszcze rezerwuary mocy obliczeniowej. Pytania o ilość zasobów oraz liczbę ich rezerwuarów nadal pozostają bez odpowiedzi. Podważa to wiarygodność koncepcji zasobów, uniemożliwiając jej empiryczną weryfikację oraz dopracowanie szczegółów teorii (Navon, 1985). Należy także podkreślić, iż postulowanie istnienia zasobów specyficznych upo dabnia teorię zasobów do teorii modułów uwagi. Mechanizm interferencji zasobowej można równie dobrze opisać w języku interferencji strukturalnej, a rezerwuary zasobów specyficznych uznać za niezależne moduły uwagi. Nie bez znaczenia jest też niejasność co do kluczowego pojęcia „zasobów”, definio wanego raczej metaforycznie (energia, paliwo mentalne) niż poprzez ścisłe terminy obserwacyjne. Teorii zasobów zarzuca się wręcz, że popada w błędne koło, tłumacząc efekt interferencji walką o zasoby, jednocześnie dowodząc istnienia zasobów i ich ograniczonego charakteru na podstawie efektu inter ferencji. Najważniejsze jednak pytanie, na które nadal nie znamy odpowiedzi, dotyczy tego, w jakich warunkach selektywna uwaga może funkcjonować wielo kanałowo, a w jakich zmuszona jest przetwarzać informacje w jednym kanale selekcji. 5.2.5. Teorie przerzutności Zwolennicy koncepcji jednokanałowego systemu selekcji informacji są zdania, iż system poznawczy może wykonywać zadania jednoczesne tylko w ten sposób, że nieustannie przełącza się z jednego na drugie. Konsekwencją takiego sposobu myślenia jest hipoteza przełącznika (Nęcka, 1994). Wykonując zadania jedno czesne, hipotetyczny filtr uwagi przez pewien odcinek czasu pozostaje na usługach jednego z dwóch zadań. W tym czasie informacje dotyczące drugiego zadania nie podlegają analizie, przez co jest ono po prostu ignorowane. Jeśli przełączenia pomiędzy zadaniami dokonują się dostatecznie szybko i często, koszty powstające w wyniku takiego funkcjonowania mechanizmów selekcji ograniczają się do czasu - reakcje po przełączeniu są nieco dłuższe, co wynika z konieczności dostosowania mechanizmu filtrującego do zadania sprzed przełączenia. Konieczna może się okazać np. zmiana poziomu analizy danych, kryteriów selekcji informacji lub tempa przetwarzania bodźców, co wymaga czasu. Jeśli jednak przełączenia są zbyt wolne lub rzadkie, zaczynają się ujaw niać również koszty w zakresie poprawności; pojawiają się ominięcia sygnałów i fałszywe alarmy, a więc błędne reakcje będące efektem spóźnienia w odbiorze
218
Rozdział 5. Uwaga i świadom ość
bodźców lub też wynikające ze stosowania nieadekwatnej zasady selekcji. W myśl koncepcji jednokanałowych, przełączanie jednego i tego samego filtra uwagi między zadaniami jednoczesnymi zawsze pociąga za sobą koszty, które niekiedy ograniczają się do wydłużonego czasu reagowania, a kiedy indziej zwiększają poziom zawodności systemu. Rogers i Monsell (1995) wyróżnili dwa rodzaje procesów biorących udział w przełączaniu uwagi: wzbudzane wewnętrznie i zewnętrznie. Pierwsza kate goria obejmuje procesy odgórne, uruchamiane przez system selekcjonujący in formacje. Ich rola polega na przygotowaniu odpowiednich operacji umysłowych, niezbędnych do wykonania zadania pojawiającego się jako następne w kolej ności. Procesy te zostały nazwane przygotowawczymi, ponieważ działają proaktywnie: ich uruchomienie następuje jeszcze przed pojawieniem się bodźców sygnalizujących nowe zadanie. Możliwość ich uruchomienia istnieje niezależnie od zewnętrznej stymulacji, również wtedy, gdy dane potrzebne do wykonania kolejnego nowego zadania nie są jeszcze dostępne przetwarzaniu (Sohn, Ander son, 2001; Sohn, Carlson, 2000). Natomiast procesy wzbudzane zewnętrznie mają charakter oddolny i działają reaktywnie, ponieważ stanowią odpowiedź systemu na już zaistniałą, nową sytuację. Rola procesów wzbudzanych zew nętrznie polega na dokończeniu dzieła zapoczątkowanego przez procesy przygotowawcze. Jest oczywiste, że procesy przygotowawcze nie są w stanie samodzielnie sterować przerzutnością uwagi, ponieważ dopiero pojawienie się nowego zadania ostatecznie określa, jakie wymagania stawia ono systemowi poznawczemu. Procesy przygotowawcze mają charakter kontrolny (Norman, Shallice, 1986), podczas gdy procesy wzbudzane zewnętrznie są raczej auto matyczne (Styles, 1997; zob. rozdz. 6.1). Działanie procesów kontrolnych jest wyraźnie widoczne wówczas, gdy osoba badana wie, jakie będzie kolejne zada nie w serii, jaki cel należy w nim zrealizować, a najlepiej - w jaki sposób można ten cel osiągnąć. Może się wówczas przygotować do wykonania zadania poprzez zaplanowanie sposobu realizacji celu. Podstawowa rola procesów kontrolnych w elastycznym reagowaniu na zmianę warunków zadania polega więc na odpowiednim doborze operacji umysłowych potrzebnych do realizacji zadania, ustaleniu ich kolejności i następstwa, a także na kontrolowaniu ich przebiegu (Ruthruff, Remington, Johnston, 2001). Próbując wyjaśnić, jak jest możliwe przełączanie uwagi między zadaniami, Rogers i Monsell (1995) wprowadzili pojęcie zestawu zadaniowego (task-set). Zestawem jest wyspecjalizowany, dobrze zorganizowany i dopasowany do sy tuacji układ operacji poznawczych niezbędnych do wykonania zadania. Działanie zestawu zadaniowego polega na skupieniu uwagi na istotnych ele mentach stymulacji, uaktywnieniu właściwego wyjścia motorycznego, urucho mieniu stosownych reguł łączenia wejścia sensorycznego z wyjściem motorycznym oraz na ustaleniu kryteriów poprawnej reakcji. Procesy składające się na zestaw tworzą więc funkcjonalny moduł przechowywany w pamięci. Przełą czenie uwagi z jednego zadania na drugie wymaga rekonfiguracji zestawu - dwa następujące po sobie zadania mogą wymagać udziału tych samych procesów, ale w innym układzie, albo wręcz nieco innego zestawu procesów. Im więcej czasu damy osobie badanej na rekonfigurację, tym mniejsze będą czasowe koszty przerzucania uwagi, dlatego wydłużanie przerwy między próbami nieco redukuje koszty; zwykle wystarczy na to mniej niż 1000 ms (Rogers, Monsell,
5.2. Teorie uwagi
219
1995). Choć adekwatna zmiana zestawu zadaniowego wydaje się niezbędnym warunkiem redukcji kosztów, nie jest jasne, w jaki sposób przebiega sam proces rekonfiguracji (Meiran, Chover, Sapir, 2000). Niektórzy badacze twierdzą, iż omawiany proces dokonuje się poprzez wydobywanie danych z pamięci, hamowanie nieistotnych informacji, monitorowanie zadań, utrzymywanie lub zmienianie celów oraz aktywację reguł zadania (Gopher, Armony, Greensphan, 2000; Goschke, 2000; Meiran, 2000; Rubinstein, Meyer, Evans, 2001). Nie jest to z pewnością lista kompletna; służy raczej pokazaniu, jakiego typu procesy przetwarzania informacji mogą mieć znaczenie dla redukcji kosztów przerzucania uwagi. W wielu eksperymentach sprawdzano efektywność procesów przygotowaw czych w zależności od rodzaju dostarczanej osobom badanym informacji o tym, jakie zadanie pojawi się jako następne w kolejności (Arbuthnott, Frank, 2000; Arbuthnott, Woodward, 2002; Sohn, Carlson, 2000). Informacja ta sprowadzała się do regularnego układu zadań, dzięki czemu badani mogli przewidzieć ich kolejność (Rogers, Monsell, 1995; Sohn, Anderson, 2001), lub miała postać wskazówki dostarczanej w czasie przerwy między poszczególnymi zadaniami (De Jong, 2000; Gopher, Armony, Greensphan, 2000; Meiran, 2000; Meiran, Chover, Sapir, 2000). Wyniki tych badań wyraźnie wskazują, że jeśli osoby badane wiedzą, jakie zadanie pojawi się jako następne oraz mają wystarczająco dużo czasu na przygotowanie się do niego, to koszty przełączania uwagi znacznie maleją. Przerwę między zadaniami, konieczną do zredukowania kosztów przerzutności określa się skrótem RSI (response-stimulus interval), ponieważ obejmuje czas między poprzednią reakcją a bodźcem sygnalizującym nowe zadanie. Długość tej przerwy zależy od rodzaju zadań, między którymi uwaga się przełącza. Na przykład w badaniu Sohna i Andersona (2001) efektywna przerwa trwała 200 ms lub 600 ms, w zależności od tego, czy osobom badanym prezentowano w czasie przerwy wskazówkę informującą o rodzaju kolejnego zadania do wykonania (krótsza przerwa wystarczająca), czy też nie (długa przerwa konieczna). U Meirana (1996) przerwa trwała 200 ms lub 1400 ms. W eksperymencie Śmigasiewicz, Szymury i Słabosz (2004) przerwa wynosiła 400 ms lub 800 ms w zależności od rodzaju redukowanych błędów (fałszywe alarmy - 400 ms; ominięcia - 800 ms). Natomiast w badaniu Ruthruffa, Remingtona i Johnstona (2001) długość przerwy dochodziła nawet do 2500 ms. Jeżeli za powstawanie kosztów przerzucania uwagi byłyby odpowiedzialne tylko procesy kontrolne, to koszty te powinny ulec całkowitej redukcji w wyniku działania wskazówki wyprzedzającej lub wystarczająco długiego RSI; w rzeczywistości redukcja kosztów nigdy nie jest zupełna (Goschke, 2000; Meiran, 2000; Ruthruff, Remington, Johnston, 2001). Oznacza to, że w generowaniu kosztów przełączenia biorą udział również procesy automatyczne, wzbudzane i ukierunkowywane oddolnie przez stymulację zewnętrzną. Przykładem działania procesów automatycznych jest efekt poprzedzania pozytywnego. Polega on na szybszym przetwarzaniu w kolejnym zadaniu z serii tej samej stymulacji, która działała w poprzednim zadaniu, lub podobnej (Sohn, Anderson, 2001; Sohn, Carlson, 2000). Tego typu automatyczne procesy ułatwiają przetwarzanie informacji w przypadku powtórzenia zadania selekcyj nego, ale mogą mieć niekorzystne skutki, gdy konieczne będzie przełączenie
220
Rozdział 5. Uwaga i świadom ość
uwagi na inny rodzaj stymulacji. Procesem automatycznym, odpowiedzialnym za powstawanie kosztów przełączania uwagi między zadaniami, jest aktywacja struktur poznawczych, stanowiąca rezultat uprzednio wykonywanego zadania. Wyniki badań prowadzonych przez Allporta i jego współpracowników (Allport, Styles, Hiesh, 1994; Allport, Wylie, 2000) wskazują, że na powstawanie tych kosztów ma wpływ proaktywna interferencja ze strony zadania wcześniejszego w stosunku do zadania występującego jako następne w kolejności. Aktywacja reguł koniecznych do wykonania ukończonego właśnie zadania nie zanika natychmiast po jego zakończeniu. Przy przejściu do nowego zadania, utrzy mująca się aktywacja związana z poprzednim zadaniem utrudnia wzbudzenie nowej aktywacji, koniecznej do rekonfiguracji zestawu zadaniowego. Aby zre dukować koszty przerzutności związane z interferencją proaktywną, należy od dzielić przełączane zadania odpowiednio długą przerwą. Allport, Styles i Hiesh (1994) stwierdzili, że im dłuższa przerwa między zadaniami, tym mniejsze koszty przełączania uwagi między nimi. Według Allporta i współpracowników świadczy to o tym, że aktywacja uprzednio utworzonego zestawu zadaniowego samoistnie zanika wraz z upływem czasu. Zdaniem Allporta (1980, 2000), im bardziej moduły selekcyjne dla różnych zadań są do siebie podobne, tym większa jest interferencja między nimi. Jest ona większa również wtedy, gdy połączenia tworzące moduł dla pierwszego zadania dominują z jakiś powodów (np. w wyniku priorytetu przyznanego przez in strukcję eksperymentalną) nad połączeniami modułu obsługującego zadanie drugie. Wyniki badań Allporta świadczą na korzyść tezy, że koszty przerzutności są związane z wykonywaniem wcześniejszego zadania w serii, a nie zadania nadchodzącego jako kolejne. Tylko w pierwszym przypadku poziom trudności zadania miał wpływ na wielkość kosztów przełączania się między zadaniami, zaś poziom trudności zadania następczego nie miał znaczenia. Istotny wpływ aktywacji zestawu odpowiadającego zadaniu wcześniejszemu na wielkość kosz tów przerzutności stwierdzono również w badaniach Meirana (2000; Meiran, Chover, Sapir, 2000). Jednakże wyniki badań Smigasiewicz, Szymury i Słabosz (2004) nie potwierdziły tezy Allporta. W badaniach tych koszty przełączenia z zadania A na zadanie B były wyższe w przypadku, gdy poziom trudności zadania B był wysoki, niż wtedy, gdy zadanie B było stosunkowo łatwe. Na podstawie powyższych argumentów empirycznych można wnosić, że wielkość kosztów przerzutności uwagi między zadaniami zależy od poziomu trudności tych zadań. Wielu badaczy (np. Rubinstein i in., 2001) uważa jednak, że koszty te wynikają nie tyle z działania elementarnych procesów poznawczych, ile z funkcjonowania mechanizmów kontrolnych - dlatego też są one, ich zdaniem, niezależne od poziomu trudności zadań. Manipulacje zmierzające do redukcji kosztów przerzutności (wskazówka dla procesów kontrolnych i przerwa dla procesów automatycznych) są sku teczne, ale tylko do pewnego stopnia. Ujawniające się mimo wszystko koszty przerzutności nie podlegające redukcji, nazwano kosztami rezydualnymi. Różni autorzy nie są zgodni co do tego, z czego wynikają te koszty. Tipper, Weaver, Cameron, Brehaut i Bastedo (1991) są zdania, że rekonfigurowanie zestawu zadaniowego może zostać wstrzymane na pewnym etapie i odroczone aż do momentu, w którym pojawi się stymulacja dotycząca nowego zadania. Innymi słowy, uruchomienie procesów zewnętrznych może być koniecznym warunkiem
5.3. Uwaga, percepcja i (nie)św iadom ość t',.-
221
s
I l i I l! g I | p i | | | | | | I | I I 1 ■ B
dokończenia procesów przygotowawczych (Rogers, Monsell, 1995). Źródłem kosztów rezydualnych może być także mechanizm inhibicji (Mayr, Keele, 2000). Przejście do kolejnego zadania w serii wymaga bowiem uruchomienia dwóch procesów: pierwszy polega na wzbudzeniu aktywacji nowego zestawu zadaniowego, drugi natomiast - na zahamowaniu aktywacji zestawu, który wraz z zakończeniem poprzedniego zadania utracił swą przydatność. Mayr i Keele (2000) wykazali, że ponowna aktywacja modułu potrzebnego do realizacji zadania wcześniej „odłączonego” trwa dłużej (układ zadań ABA) niż aktywacja modułu koniecznego do wykonania zadania całkiem nowego, dotąd nie wykonywanego (układ zadań ABC). Jest to zjawisko analogiczne do efektu poprzedzania negatywnego (Neill, 1977; Tipper, 1985; zob. rozdz. 6.2): reakcja na bodziec uprzednio ignorowany jest znacznie utrudniona. Koszty rezydualne mogą więc powstawać w wyniku konieczności „odhamowania” reakcji wcześniej zahamowanej. Badania nad przerzutnością uwagi koncentrują się wokół problemu kosztów przełączania się między zadaniami - ich przyczynami i możliwościami redukcji. Oddzielenie wpływu procesów kontrolnych i automatycznych na redukcję tych kosztów wydaje się niemożliwe, gdyż głównym czynnikiem pozwalającym zwiększyć efektywność przełączenia jest długość przerwy RSI (Allport, Styles, Hiesh, 1994; Sohn, Anderson, 2001). W wyniku jej działania możliwy jest zarówno automatyczny zanik aktywacji wywołanej poprzednim zadaniem, jak i kontrolowany proces przygotowania się do wykonywania następnego zadania w serii.
| 5.3. Uwaga, percepcja i (nie)świadomość | |: I I I I
I I I I
1 1 1 I; | | i I 1 I
Zgodnie z tradycją, wprowadzoną przez Jamesa (1890), przez dłuższy czas uważano, że uwaga jest zdolnością umysłu do świadomej koncentracji na wybranym podmiocie: myśli bądź rzeczy. Przyjmowano, że jeśli coś się przedostanie przez filtr uwagi, musi być uświadomione, a jeśli nie jest uświadomione, to znaczy, że zanikło na bardzo wczesnych etapach przetwarzania. Obróbkę informacji na wczesnych etapach nazywano w związku z tym procesami przeduwagowymi (preattentive processes). Obecnie stanowisko psychologów w tej kwestii uległo złagodzeniu. Uważa się, że uwaga skutecznie selekcjonuje informacje nawet wtedy, gdy ich treść nie przedostaje się do świadomości. Zebrano dane empiryczne, świadczące o możliwości nieświadomej obróbki danych na najwyższym, semantycznym piętrze przetwarzania. Na określenie tych zjawisk nadal używa się historycznego terminu „procesy przeduwagowe”, choć nikt nie wątpi, że są to zjawiska całkowicie uwagowe. Badanie związków uwagi, percepcji i świadomości wymaga ustalenia empirycznych kryteriów świadomości. Velmans (1999) uważa, że proces przetwarzania informacji można uznać za świadomy, jeśli są spełnione następujące warunki: człowiek zdaje sobie sprawę z przebiegu procesu poznawczego i dysponuje wiedzą o rezultatach tego procesu, a świadomość procesu ma wpływ na jego przebieg. Zaś zdaniem Baara (1997) proces można uznać za nieświadomy, jeśli nie wyzwala subiektywnego doświadczenia i nie można go w żaden sposób
222
Rozdział 5. Uwaga i świadomość
zrelacjonować czy odtworzyć, nawet w warunkach optymalnych, ale ujawnia ją się obiektywne skutki jego działania. Marcel (1983) oraz Cheesman i Merikle (1984) zaproponowali eksperymentalne sposoby sprawdzenia, czy głę bokie, semantyczne przetwarzanie informacji może mieć charakter nieświado my. Chodzi o wypracowanie operacyjnych definicji tego, czym jest bodziec podprogowy. Mianem bodźca podprogowego (subliminalnego) określa się stymulację, która jest wystarczająco silna, aby pobudzić organy sensoryczne, ale zbyt słaba, aby można ją było świadomie zauważyć. Bodziec podprogowy działa więc po wyżej absolutnego progu percepcji, ale poniżej progu świadomości. Technicznie rzecz biorąc, podprogowy charakter stymulacji najczęściej uzyskuje się poprzez drastyczne skrócenie czasu jej trwania (nawet do kilku ms). Problem polega na tym, czy inne m anipulacje eksperymentalne - poza skróceniem czasu prezentacji - pozwalają uznać bodziec za podprogowy. Zdaniem Marcela (1983) przebiegu nieświadomego procesu przetwarzania informacji nie można zaobserwować bezpośrednio - o jego występowaniu świadczy natomiast wpływ, jaki proces ten wywiera pośrednio na inne, świa dome procesy poznawcze. Bezpośrednie efekty oddziaływania bodźców w zadaniach poznawczych sprawdza się zazwyczaj poprzez wskaźniki poprawności oceny fizycznych charakterystyk tych bodźców, np. ich obecności lub lokalizacji w prezentowanym zestawie. Natomiast efekty pośrednie można ocenić mierząc wpływ bodźców zdegradowanych, np. zniekształconych, maskowanych lub prezentowanych w bardzo krótkim czasie, niewystarcza jącym do świadomego rozpoznania. Pośredni jest np. efekt synonimu, uchwy cony w paradygmacie podążania jako spowolnienie reakcji na sygnały poja wiające się w kanale ważnym, gdy w kanale ignorowanym występują ich sy nonimy (Treisman, Squire, Green, 1974; Treisman, Sykes, Gelade, 1977). Badani nie mają świadomości występowania synonimów w kanale ignorowa nym, a zwłaszcza nie zdają sobie sprawy z ich wpływu. Zgodnie z definicją Velmansa, efekt ten można więc uznać za przykład nieświadomego przetwa rzania informacji. Zdaniem Marcela, bodziec można uznać za subliminalny nawet wtedy, gdy trwa odpowiednio długo, pod warunkiem, że pojawia się na peryferiach pola uwagi - jest np. zamaskowany lub pojawia się na peryferiach pola widzenia (w tle). Natomiast Cheesman i Merikle (1984, 1986) argumentują, że świadome przetwarzanie może teoretycznie objąć każdy bodziec, działający powyżej absolutnego progu percepcji. Ich zdaniem nie można wykluczyć, że synonimy pojawiające się w kanale ignorowanym są w istocie przetwarzane świadomie, choć badani mogą ich później nie pamiętać, przez co badacz błędnie wnioskuje o braku świadomości ich występowania (Holender, 1986; Velmans, 1991). Wynika stąd, że wpływ bodźców bardzo krótkich, jeśli się ujawni, musi być skutkiem nieświadomej analizy i selekcji informacji, to wpływ bodźców zde gradowanych w inny sposób (np. pojawiających się w odrzucanym kanale akustycznym czy na peryferiach pola wzrokowego) - niekoniecznie. Jednakże, niezależnie od ustalenia operacyjnej definicji bodźca podprogowego, nie brakuje argumentów empirycznych, świadczących o tym, że jest możliwa nieświadoma selekcja i analiza informacji.
5.3. Uwaga, percepcja i (nie)świadomość
223
5.3.1. Analiza wskazów ek peryferycznych
[ i [ \ [ | [ | | I |
;
5
Mendelsohn wraz ze współpracownikami (Mendelsohn, 1976; Mendelsohn, Griswold, 1964, 1966) prosili osoby badane o wykonanie kolejno dwóch zadań. Pierwsze polegało na zapamiętywaniu listy wyrazów, a drugie - na rozwiązy waniu anagramów (układanie wyrazów z losowo rozrzuconych liter). Niektóre słowa, stanowiące rozwiązanie anagramów, były obecne na liście wyrazów do zapamiętania. Mimo iż badani nie zdawali sobie sprawy z relacji między obu zadaniami, rozwiązywali znacznie więcej anagramów wtedy, gdy słowa stanowiące ich rozwiązanie znajdowały się na zapamiętywanej uprzednio liście bodźców. Nazwano to efektem nieuświadomionej podpowiedzi. Mendelsohn i Liedholm (1972) wykazali, że jego wielkość zależy od modalności sensorycznej. Znacznie większy efekt zaobserwowano wtedy, gdy lista zapamiętywanych wyrazów prezentowana była w modalności wizualnej, niż wtedy, gdy przedstawiano ją słuchowo. Nieco bardziej sceptyczne wnioski wynikają z badań Macka, Rocka oraz ich współpracowników (Mack i in., 1992; Rock i in., 1992; Mack, Rock, 1998). Wykonali oni serię eksperymentów w celu zbadania, czy możliwa jest percepcja bodźców znajdujących się poza centrum uwagi. Zadaniem osób badanych była ocena, które ramię prezentowanego im na ekranie krzyża było dłuższe. W części zadań oprócz krzyża pojawiał się inny bodziec (w centrum lub na peryferiach pola percepcyjnego), o czym badani nie byli uprzedzani. Po zakończonym eksperymencie pytano osoby badane, czy oprócz krzyża widziały jeszcze jakieś inne bodźce. W przypadku odpowiedzi pozytywnej proszono o ich wymienienie, a w przypadku odpowiedzi negatywnej - o wybranie spośród kilku obiektów tych, które mogły być uprzednio pokazywane. W każdym z cytowanych tu badań, gdy bodźce dodatkowe prezentowano peryferycznie, 25-35% respon dentów udzielało negatywnej odpowiedzi na pytanie eksperymentatorów. Badani ci nie byli również w stanie rozpoznać sygnału wśród sześciu prezen towanych im później figur. Jeśli natomiast sygnał pojawiał się tuż obok krzyża (w centrum uwagi), praktycznie nie zdarzyło się, aby pozostał niezauważony. W zauważeniu bodźca peryferycznego pomagały cechy priorytetowe, takie jak ruch czy kolor, jeśli były dystynktywne (zob. też Horbaczewski, Szymura, 2005; Szymura, Horbaczewski, 2005). Wykryto też, że aż 90% osób badanych zauwa żało pojawienie się na peryferiach pola wzrokowego, poza ogniskiem uwagi, własnego imienia (por. Moray, 1959). Jeśli jednak na ekranie pojawiało się jakieś inne imię, zauważało je niewiele ponad 60% uczestników eksperymentu, a tylko 45% z nich było w stanie poprawnie je zidentyfikować. Gdy nie oczekiwanym bodźcem było błędnie napisane własne imię osoby badanej, ta zwykłe nie była w stanie go zidentyfikować, ani nawet zauważyć. Podobnie było w przypadku innych wyrazów niosących ze sobą specyficzne znaczenie, zu pełnie jednak niezwiązane z zadaniem przetwarzanym w centrum uwagi. Bodźce pojawiające się na peryferiach uwagi są więc przetwarzane raczej słabo, i tylko na dość płytkim poziomie, z niewielkim udziałem analizy semantycznej (Mack, Rock, 1998).
224
Rozdział 5. Uwaga i świadomość
5.3.2. Reakcje na informacje odrzucane Prowadząc badania w paradygmacie podążania, Lackner i Garrett (1972) prezen towali w ważnym kanale komunikaty o niejasnej treści, a w kanale ignorowanym - wskazówki pomocne w ich interpretacji. Stwierdzono, że badani wykorzysty wali wskazówki, choć nie byli w stanie odtworzyć jakichkolwiek informacji po chodzących z kanału ignorowanego. Interpretacja niejasnego przekazu była tym lepsza, im większa była semantyczna zbieżność nieuświadomionej wskazówki z treścią owego komunikatu. Wyniki te potwierdził następnie Mackay (1973), a jeszcze silniejszych argumentów za nieświadomym przetwarzaniem semantycz nym w kanale odrzucanym dostarczył Holender (1986). Wykorzystując procedurę Lacknera i Garretta, autor dokonał dodatkowej manipulacji, polegającej na roz dzieleniu w czasie wskazówki i dwuznacznego przekazu: informacja pomagająca w interpretacji przekazu znacznie go wyprzedzała. Holender uzyskał wyniki zbliżone do rezultatów Lacknera i Garretta oraz Mackaya - nieuświadomiona wskazówka nadal pomagała w wykonywaniu głównego zadania. Ze względu na czasową rozbieżność prezentacji bodźców w obu kanałach, w interpretacji niejasnego komunikatu nie mogła pomagać nietrwała reprezentacja wyobraże niowa wskazówki, ale raczej jej trwała i głęboka reprezentacja umysłowa. Przy założeniu, że brak werbalizacji wskazówki oznacza brak jej uświadomienia, wyniki uzyskane przez Holendra, można traktować jako bardzo ważny argument na rzecz tezy o nieświadomym przetwarzaniu znaczenia bodźców. Dallas i Merikle (1976) wykazali, że prawidłowa reakcja na słowo prezen towane w kanale ważnym (np. samochód) może być znacznie przyspieszona, gdy w kanale ignorowanym pojawi się słowo semantycznie z nim związane (np. kierownica). Czas reakcji wydłuża się natomiast wtedy, gdy w kanale ignorowa nym pojawi się synonim słowa, na które należy zareagować (np. auto), co nosi nazwę efektu synonimu (zob. ramka 5.1). Nie jest jasne, dlaczego synonim zmniejsza szybkość reagowania, a słowo bliskie znaczeniowo skraca czas reakcji. Nie ma jednak wątpliwości, że informacje pozornie ignorowane przedostają się do kanału przetwarzania semantycznego, mimo iż uczestnicy badań nie zdają sobie z tego sprawy. Informacje pojawiające się w kanale ignorowanym mogą również prowadzić do nieuświadomionych, specyficznych reakcji psychofizjologicznych organizmu. Corteen i współpracownicy (Corteen i Dunn, 1974; Corteen i Wood, 1972) uwarunkowali osoby badane na określone słowa, poprzedzając ich prezentację delikatnym szokiem elektrycznym. Zaobserwowano, że reakcja elektrodermalna (skórno-galwaniczna) wystąpiła w odpowiedzi na bodziec warunkowy, czyli słowo sygnalizujące szok elektryczny, niezależnie od tego, czy bodziec ten pojawiał się w kanale ważnym, czy ignorowanym, z czego oczywiście badani nie zdawali sobie sprawy. Co więcej, jak wykazali Von Wright, Anderson i Stenman (1975), reakcja elektrodermalna pojawia się także w odpowiedzi na synonimy słów skojarzonych z szokiem elektrycznym, prezentowane w kanale ignorowanym. Efekt synonimu Treisman i Daviesa został więc po raz kolejny potwierdzony, tym razem z wy korzystaniem miar psychofizjologicznych. Wobec braku świadomości zarówno samego efektu, jak i występowania słów-synonimów, wyniki te uznano za dowód na istnienie procesów nieświadomego przetwarzania znaczenia sygnałów (Holender, 1986; Yelmans, 1991).
5.3. Uwaga, percepcja i (nie)świadomość
225
5.3.3. Poprzedzanie podprogowe Poprzedzanie jest techniką eksperymentalną, polegającą na badaniu wpływu bodźca prezentowanego wcześniej (prymy) na przetwarzanie bodźca docelowe go, pojawiającego się później (paradygmat 5.6). Dla dyskusji dotyczącej nie świadomego przetwarzania znaczeń, najistotniejsze są badania nad poprze dzaniem peryferycznym i subliminalnym; inne formy poprzedzania omówiono w rozdz. 6.2. 1 Paradygmat 5.6
| Poprzedzanie (prymowanie, priming) ~ą
i Poprzedzanie ma miejsce wtedy, gdy jeden bodziec, zwany prymą (prime), wpływa | na przetwarzanie następującego po nim bodźca docelowego (target). W starszych l pracach psychologicznych podobne efekty nazywano nastawieniem. Pryma i boI dziec docelowy muszą być powiązane sensorycznie (np. identyczny lub podobny f wygląd; Evett, Humphreys, 1981) lub semantycznie (np. identyczne lub bliskie I znaczenie; Posner, Snyder, 1975). Nie jest więc przykładem prymowania jakief kolwiek oddziaływanie - rzeczywiste lub potencjalne - tego, co było wcześniej, na ; to, co pojawia się później. Gdyby definicję prymowania aż tak rozszerzyć, pod li padałoby pod nią w zasadzie całe życie psychiczne człowieka. Chcąc uniknąć 8 kłopotów związanych z przyjęciem zbyt szerokiej definicji zjawiska, terminem „pry8 mowanie” oznaczamy technikę badań eksperymentalnych, czyli paradygmat, pole- : i gający na poprzedzaniu bodźca docelowego bodźcem w jakiś sposób z nim powiązanym. W zależności od rodzaju powiązania rozróżniamy wiele typów poprzedzania. a Poprzedzanie repetytywne polega na któtkiej ekspozycji tego samego bodźca, j który za chwilę ma być przez osobę badaną rozpoznany, przeczytany, zaliczony do | jakiejś kategorii lub w inny sposób przetworzony. Poprzedzanie semantyczne f polega na tym, że pryma nie jest identyczna z bodźcem docelowym, ale jest z nim I znaczeniowo powiązana. Pryma może być np. synonimem bodźca docelowego | (biblioteka ► księgozbiór) lub słowem należącym do tej samej kategorii (długopis | -> ołówek). W badaniach tego typu stwierdza się zazwyczaj, że bodziec prymujący | | ułatwia przetwarzanie bodźca docelowego, np. skraca czas potrzebny na jego 8 rozpoznanie, przeczytanie, nazwanie itp. Mamy wtedy do czynienia z poprze dzaniem pozytywnym, zwanym też niekiedy torowaniem, ponieważ pryma jak gdyby toruje drogę bodźcowi docelowemu. Może się jednak zdarzyć, że bodziec i poprzedzający wydłuża czas reakcji albo w inny sposób utrudnia przetwarzanie | bodźca docelowego. Nazywamy to efektem poprzedzania negatywnego, który | zwykle ujawnia się tylko w specyficznym układzie bodźców (zob. rozdz. 6). 1 Jeśli bodziec poprzedzający działa w bardzo krótkim czasie, od kilku do kil- 8 I kudziesięciu ms, osoba badana nie jest w stanie go zauważyć. Jeśli mimo to | obserwujemy zmiany w przetwarzaniu bodźca docelowego, mamy do czynienia I z poprzedzaniem podprogowym, inaczej subliminalnym. Trzeba jednak pamiętać, | że poprzedzanie podprogowe niekoniecznie wymaga bardzo krótkiej ekspozycji 8 I prymy. Niekiedy efekt podprogowości można uzyskać inaczej, np. prezentując bo- 8 | dziec o bardzo małej intensywności. Możemy w tym celu manipulować poziomem
¡ ¡
226
Rozdział 5. Uwaga i świadomość
jasności bodźca wzrokowego lub poziomem głośności bodźca słuchowego. Jeśli bodziec poprzedzający jest wystarczająco intensywny i trwa wystarczająco długo, a mimo to osoba badana nie zdaje sobie sprawy z jego oddziaływania, mamy do czynienia z poprzedzaniem peryferycznym. Bodziec wzrokowy może np. znaj dować się na peryferiach pola widzenia albo w centrum pola widzenia, ale doskoi nale zamaskowany innymi bodźcami, przez co osoba badana nie jest w stanie go I zauważyć. Jeśli mimo to obserwujemy obiektywny wpływ takiej prymy na prze> twarzanie bodźca docelowego, możemy mówić o efekcie poprzedzania peryferycz| nego. Peryferyczna może być też pryma słuchowa, występująca tuż przed bodź cem docelowym i obiektywnie wystarczająco głośna, ale pojawiająca się w tzw. kanale ignorowanym (paradygmat 5.1). Szczególnym przypadkiem jest poprzedzanie afektywne, które polega na aplikowaniu przed bodźcem docelowym bodźców emocjonalnie nieobojętnych, np. wizerunków uśmiechniętych lub zasmuconych twarzy, fotografii przyjemnych albo nieprzyjemnych obiektów lub scen, czy też słów oznaczających uczucia lub koI jarzących się z emocjami. W takim przypadku obserwuje się zwykle, że bodziec i; docelowy jest inaczej oceniany pod wpływem działania prymy. Na przykład bodziec i pierwotnie neutralny może nam się wydawać sympatyczny lub niesympatyczny, 5 w zależności od emocjonalnego znaku zastosowanej prymy. W większości badań nad poprzedzaniem zachowuje się ścisłe powiązanie czasowe między prymą a bodźcem docelowym. Typowy eksperyment polega na zaaranżowaniu szeregu prób, z których każda składa się z określonej sekwencji zdarzeń, np.:
Pryma trwa zwykle bardzo krótko, chyba że celowo rezygnujemy z możliwych efektów subliminalnych. Po niej następuje maska, czyli np. rząd gwiazdek **** lub liter XXXX, które zapobiegają utrzymywaniu się śladu bodźca - już po jego zniknięciu - na siatkówce oka. Po masce pojawia się bodziec docelowy, na który należy zareagować zgodnie z instrukcją. Po krótkiej przerwie następuje kolejna próba, skonstruowana według tego samego schematu. Taki schemat badania nazywamy poprzedzaniem sekwencyjnym. W niektórych badaniach nad pamięcią stosuje się inny, niesekwencyjny pa radygmat prymowania. Osoba badana czyta np. krótki fragment prozy, zawierający pewną liczbę semantycznie powiązanych słów. Mogą to być słowa należące do tej samej kategorii lub kojarzące się z czymś wspólnym. Po pewnym czasie, który może trwać ok. tygodnia, osobie badanej prezentuje się inny fragment prozy, sprawdzając, czy wcześniej prezentowane bodźce w jakiś sposób wpłynęły na ocenę drugiego fragmentu, albo na to, w jaki sposób będzie on zapamiętany lub zinterpretowany. W badaniach tego typu udało się wykazać, że bodźce prymujące, prezentowane na długo przed właściwym tekstem, są w stanie wpłynąć na sposób przetwarzania bodźców docelowych, choć osoba badana nie zdaje sobie z tego sprawy. Obfitość i różnorodność badań z użyciem paradygmatu poprzedzania spra wia, że jest to obecnie jedna z bardziej popularnych technik eksperymentowania w psychologii poznawczej.
5.3. Uwaga, percepcja i (nie)świadomość
227
Neill (1977) prosił osoby badane o podejmowanie decyzji leksykalnych: uczestnicy oceniali, czy prezentowany im na ekranie ciąg liter jest sensownym, poprawnie napisanym wyrazem ich ojczystego języka. Niektóre bodźce poprzedzano prymą powiązaną semantycznie z bodźcem docelowym (np. miód -> pszczoła), a inne - prymą semantycznie niezwiązaną lub neutralną (np. trak tor -+ pszczoła). Było to poprzedzanie peryferyczne, polegające na podawaniu prymy odpowiednio długotrwałej, ale trudnej do zauważenia ze względu na sporą odległość względem punktu fiksacji. Okazało się, że decyzja leksykalna (np. czy „pszczoła” to słowo języka polskiego?) była znacznie szybsza, gdy bo dziec docelowy (pszczoła) poprzedzono prymą semantyczną. Neill dostarczył więc argumentów zwolennikom tezy, że peiyferyczny, prawdopodobnie nie uświadomiony bodziec poprzedzający może mieć wpływ na późniejsze prze twarzanie bodźca właściwego. Rodzą się jednak wątpliwości, czy w tych badaniach prymy były rzeczywiście nieuświadomione. Znacznie mocniejszych argumentów dostarczają więc badania z wyko rzystaniem poprzedzania subliminalnego, czyli podprogowego (Fowler i in., 1981). Prymy prezentowano zbyt krótko, jak na możliwości percepcyjne osób badanych, a ponadto poddano je natychmiastowemu maskowaniu. Okazało się, że efekt poprzedzania jest równie silny w przypadku poprzedzania podprogowego i okołoprogowego. Co więcej, Fishler i Goodman (1978) wykazali, że prymy podprogowe (bardzo krótkie) mogą czasem działać silniej niż prymy nadprogowe (odpowiednio długie). W obu badaniach upewniono się, że uczestnicy przetwarzali bodźce poprzedzające bez udziału świadomości, ponieważ nie byli w stanie ich później rozpoznać (był to tzw. test świa domości) . Underwood (1977) wskazał jednak na pewne ograniczenia zdolności systemu poznawczego do nieświadomej analizy znaczenia bodźców. W jego badaniu poprzedzanie miało charakter nadprogowy, ale połączono je z pro cedurą podążania. Bodźce poprzedzające pojawiały się zarówno w kanale ważnym, jak i w kanale ignorowanym. Autor zreplikował efekt poprzedzania, i to tak w kanale ważnym (co oczywiste), jak i w kanale ignorowanym (co mniej oczywiste, a bardzo interesujące). Różna była jednak jakość tego efektu w obu przypadkach. Podczas gdy poprzedzanie semantyczne w kanale ważnym przyczyniało się do głębokiej analizy przekazu, ułatwiając zrozumienie dłuższej wypowiedzi, w kanale ignorowanym działało tylko w odniesieniu do poje dynczych słów, czyli obejmowało stosunkowo płytki poziom identyfikacji znaczenia. Wyniki opisane w trzech ostatnich podrozdziałach świadczą na korzyść tezy 0 zdolności umysłu ludzkiego do nieświadomego przetwarzania informacji na poziomie semantycznym; inne argumenty znaleźć można w pracy Szymury 1 Słabosz (2002). Wyniki te zebrano z wykorzystaniem różnych procedur i wie lokrotnie replikowano. Jednakże wyniki badań Macka i Rocka (1998) oraz Underwooda (1977) nakazują pewną ostrożność interpretacyjną, bowiem nie świadome przetwarzanie znaczenia może ograniczać się do stosunkowo płyt kiego poziomu obróbki informacji.
228
Rozdział 5. Uwaga i świadomość
5.4. Podsumowanie Treść niniejszego rozdziału pokazuje, jak wiele funkcji pełni mechanizm uwagi i jak wieloma metodami można go badać. Mimo licznych i różnorodnych zadań, takich jak selekcja źródła informacji, przeszukiwanie pola percepcyjnego, utrzy mywanie gotowości do działania, obsługa zadań jednoczesnych i przerzutność między zadaniami, uwaga pozostaje mechanizmem jednorodnym, czerpiącym ze wspólnych zasobów poznawczych. Trzeba tu jednak podkreślić, że w tym rozdziale mowa była o uwadze rozumianej tradycyjnie: jako mechanizmu odpo wiedzialnego za ochronę systemu poznawczego przed negatywnymi skutkami przeładowania informacyjnego. Oprócz tego uwadze przypisuje się funkcje kon trolne, te jednak opiszemy w rozdz. 6. Wydaje się, że problem kontroli poznaw czej jest zbyt ważny, aby „upychać” go między rozważaniami poświęconymi uwadze w wąskim rozumieniu. Ponadto kontrola poznawcza to nie tylko uwaga, ale również pewne elementy pamięci roboczej, nie mówiąc o problemach związanych z automatyzacją procesów poznawczych. Treść tego rozdziału skłania do jeszcze innego wniosku, mianowicie że uwaga jest ściśle powiązana z energią i jej wydatkowaniem. Zgodnie z nieco żartobliwą definicją Broadbenta „uwaga to tajemnicza energia, czasem powią zana z ludzkim działaniem, a czasem nie”. Poznawcze funkcje uwagi niewąt pliwie wymagają nakładu energii, a ich pełnienie w dłuższym okresie prowadzi do zmęczenia. Bezwysiłkowe, bo automatyczne, są natomiast procesy przeduwagowe, co być może stanowi wystarczający powód, aby je wyróżniać i tak właśnie nazywać. Pojęcie energii mentalnej jest niezbyt dobrze zdefiniowane i zoperacjonalizowane, ale jak dotąd nie udało się zbudować sensownej teorii psychologicznej, która mogła by się bez niego obyć. Dotyczy to w szczególności teorii opisującej działanie uwagi.
R ozdział
Kontrola poznawcza
Czynności autom atyczne i au to m aty za cja 231 Kryteria autom atyczności przetw arza nia 231 Schneidera i Shiffrina teoria kontinuum 233 Logana teoria rywalizacji egzemplarzy 239 Konsekwencje automatyzacji czynności 248 Hamowanie jako m echanizm kontrolny 251 Istota i funkcje hamowania
251
Hamowanie dominującej reakcji Odporność na dystrakcję
253
255
Odporność na interferencję proaktywną 261
Czy hamowanie jest konstruktem jedno rodnym? 262 Funkcje zarządcze
266
Istota funkcji zarządczych czyli homuncu lus odnaleziony 266 Rodzaje funkcji zarządczych
267
Mechanizm zarządczy w koncepcji uwagi Posnera 269 Dwustopniowy system kontroli zachowa nia w koncepcji Shallice 271 Centralny system wykonawczy pamięci roboczej w modelu Baddeleya 274 Podsumowanie
276
Kontrola poznawcza to zdolność systemu poznawczego do nadzorowania i regulowania własnych procesów poznawczych, a także do planowanego sterowania ich przebiegiem. Automatyzacja jest procesem, dzięki któremu czynność poznawcza lub motoryczną stopniowo uwalnia się spod kontroli poznawczej, przez co jest wykonywana szybko i bez wysiłku, ale schematycznie. Według Daniela Dennetta „umysł to armia idiotów”, w dodatku pozbawiona sztabu generalnego i naczelnego dowództwa. Wszystkie funkcje, łącznie z najbardziej złożonymi, są możliwe dzięki współdziałaniu wielkiej liczby sto sunkowo prostych elementów. Czy przy takiej wizji jest w ogóle możliwe zmie rzenie się z problemem kontroli poznawczej? Czy problem kontroli umysłu nadaje się do badania metodami naukowymi? Zdolność umysłu do samokontroli i samoregulacji jest dla nauki bardzo trudnym wyzwaniem, ponieważ problem ten „zahacza” o podstawowe kwestie religijne i filozoficzne, takie jak pytanie o wolność i wolną wolę. Nauka szuka wyjaśnień deterministycznych, dlatego dość łatwo oddaje pole tam, gdzie do strzega granice deterministycznego sposobu opisu świata i mechanistycznego wyjaśnienia badanych mechanizmów. Poza tym próby uchwycenia fenomenu kontroli poznawczej nazbyt często odwołują się - zwykle nie wprost - do hom unculusa: małej istoty tkwiącej w naszym umyśle i sprawującej nad nim kontrolę (Nęcka, 2004). Ten rodzaj wyjaśniania jest oczywiście pozorny, po nieważ trzeba by zapytać, kto steruje naszym homunculusem, a następnie homunculusem homunculusa itd. Jeśli mimo to podejmuje się próby badania kontroli poznawczej, to dlatego, że bez tego konstruktu nie sposób wyobrazić sobie trafnego i względnie kompletnego opisu tego, jak działa ludzki umysł. Rola procesów kontroli jest szczególnie duża wtedy, gdy nasze czynności poznawcze wymagają planowania i podejmowania decyzji, gdy konieczna jest korekta błędów i reagowanie na pojawiające się problemy, gdy musimy wykonać czynności nie dość dobrze wyuczone, gdy sytuacja jest nowa, niebezpieczna lub trudna, a także wtedy, gdy wymagane jest przezwyciężenie silnego nawyku lub odparcie pokusy (Norman, Shallice, 1986). W innych przypadkach możemy polegać na procesach automatycznych, wykonywanych poza kontrolą albo z niewielkim jej udziałem. Zakres i doniosłość sytuacji, w których kontrola poznawcza jest ważna lub niezbędna, nakazuje poddać procesy kontroli systematycznemu badaniu. Psy chologia poznawcza próbuje więc wykryć, jak działa nasz wewnętrzny homunculus: jakie czynności wykonuje, z czego się składa i do jakich skutków pro wadzi jego działalność. Podstawowym zabiegiem, jakiego trzeba dokonać na wstępie, jest podział procesów poznawczych na dwie grupy: te które bezpośrednio wykonują czynności poznawcze oraz te, które wyspecjalizowały się w nadzorowaniu i kontrolowaniu. Pierwsze nazwiemy procesami kontrolo wanymi, drugie - procesami kontrolnymi. W literaturze funkcjonują również inne określenia, np. komponenty i metakomponenty procesu poznawczego (Sternberg, 1977a). Według Adama Chuderskiego (2005) kontrola poznawcza przyjmuje trzy postaci:
6.1. Czynności automatyczne i automatyzacja
231
• monitorowanie, czyłi sprawdzanie przez procesy kontrolne sposobu przebiegu i skutków działania procesów kontrolowanych, bez aktywnej ingerencji w ów przebieg; • regulacja, czyli reakcja procesów kontrolnych na błędy i zakłócenia w przebiegu procesów kontrolowanych; • sterowanie, czyli aktywne i planowane wpływanie przez procesy kontrolne na przebieg procesów kontrolowanych.
!. [: [ [ |
j j I
Nie wszystkie aspekty i formy kontroli poznawczej zostały poddane badaniom. Najczęściej spotyka się prace dotyczące automatyzacji procesów poznawczych. Automatyzacja, jako uwalnianie się procesu poznawczego spod kontroli, jest zarazem sposobem na zmniejszenie kosztów przetwarzania informacji, zwłaszcza kosztów związanych z kontrolą czynności jednoczesnych lub przerzucaniem się z jednego zadania na inne. Duża część badań poświęcona jest też hamowaniu poznawczemu, czyli zdolności systemu poznawczego do „wyłączenia” procesu, który w danej sytuacji jest niepożądany lub kosztowny, Trzeci obszar badań, ostatnio niezwykle intensywnie rozwijany, dotyczy samych procesów kontroli: ich taksonomii, sposobów działania i wzajemnych związ ków. Procesy te, zwane niekiedy funkcjami zarządczymi, odpowiadają za najbardziej złożone, świadome i inteligentne czynności umysłu ludzkiego. Te trzy obszary badań nad kontrolą poznawczą będą przedmiotem rozważań w niniejszym rozdziale.
6.1. Czynności automatyczne i automatyzacja 6.1.1. Kryteria automatyczności przetwarzania Automatyzacja polega na nabywaniu wprawy w zakresie wykonywania czyn ności na skutek treningu, czyli powtarzania tej czynności w tych samych lub zmienionych warunkach zadania (Schneider, Shiffrin, 1977a, 1977b; Shiffrin, Schneider, 1977). Trening jednorodny występuje wtedy, gdy jedna i ta sama reakcja jest odpowiedzią na zawsze ten sam układ bodźców. Trening nie jednorodny polega natomiast na częstych zmianach kategorii bodźców (np. liter na cyfry i odwrotnie) przy zachowaniu tego samego typu reakcji. W wyniku długotrwałego i systematycznego treningu dochodzi do pełnej automatyzacji, czyli wytworzenia czynności automatycznej. Przebieg takiej czynności staje się relatywnie szybki, bezwysiłkowy i pozbawiony większych kosztów poznaw czych, a jej realizacja dokonuje się bez namysłu i kontroli ze strony świadomości (Czyżewska, 1991; Schneider, Dumais, Shiffrin, 1984). Automatyzacja czynności pozwala więc na uwolnienie zasobów systemu poznawczego (Kahneman, 1973; Norman, Bobrow, 1975; zob. rozdz. 5.2.4), związanych wcześniej z wykonywaniem tej czynności, pozwalając na inne ich przeznaczenie - np. na jednoczesne wykonanie innej czynności. Istnienie procesu automatyzacji czynności ma swoje ewolucyjne uzasadnienie (Bargh, 1999; Bargh, Chartrand, 1999). Jak słusznie zauważył Whitehead (1911), postęp cywilizacyjny dokonuje się przez zwiększanie liczby operacji, które można wykonywać bez konieczności myślenia o nich. W tym czasie, ldedy właśnie te
232
Rozdział 6. Kontrola poznawcza
operacje są wykonywane, system poznawczy może bowiem zająć się twórczym rozwiązywaniem problemów oraz podejmowaniem kluczowych decyzji. Whitehead porównuje przebieg procesów poznawczych do pola bitwy. Uporczywie drążąca to pole piechota „czynności automatycznych” daje miejsce i czas dla „kontrolowanej” kawalerii myśli. Ta jest wprawdzie nieliczna i wymaga „świeżych koni” (zasobów), ale wysyła się ją na pole bitwy jedynie w momentach decydujących o przebiegu batalii. Procesy automatyczne można też opisać poprzez analogię do automatycz nego pilota samolotu (Bargh, Chartrand, 1999; Jaśkowski, Skalska, Verleger, 2003; Logan, 1988). Pozwala on na kontynuowanie lotu na określonym po ziomie i z określoną szybkością, podobnie jak czynność automatyczna pozwala na poprawne i szybkie wykonanie zadania, za które odpowiada. Pilot auto matyczny ma jednak pewne wady. Po pierwsze, raz uruchomiony skutecznie utrudnia zmiany w zakresie parametrów lotu. Ta korekta musi być wprowa dzona w sposób kontrolowany. Po drugie, jego zastosowanie ograniczają warunki lotu - w sytuacjach trudnych i nieprzewidywalnych użycie automatycz nego pilota może nawet doprowadzić do katastrofy. Analogicznie, jedną z najważniejszych charakterystyk czynności automatycznej jest to, że bardzo trudno ją zmodyfikować. Czynność taka, raz rozpoczęta, musi zostać ukończona, chyba że - tak samo jak pilot automatyczny - zostanie zatrzymana przez mechanizm kontrolny wyższego rzędu. Tę cechę procesów automatycz nych określa się jako balistyczność (Hasher, Zacks, 1979). Podobnie, wyko nywanie czynności automatycznych w warunkach niestandardowych może doprowadzić do wyniku zupełnie nieadekwatnego do okoliczności. Analogia do pilota automatycznego pokazuje więc doskonale zalety i wady czynności auto matycznych - konsekwencją wysokiego poziomu wykonania są zarówno ogra niczone możliwości ingerencji w przebieg takiej czynności, jak i wąski zakres jej użyteczności. Procesom automatycznym często przeciwstawiane są procesy świadome (Bargh, Chartrand, 1999), choć wydaje się to błędne (Nęcka, 2002). Proces poznawczy jest świadomy, gdy zdajemy sobie sprawę przynajmniej z niektórych jego aspektów, w szczególności z tego, że właśnie przebiega. Proces taki może być automatyczny, jeśli wiemy, że on zachodzi, ale nie możemy go zahamować ani zmodyfikować. Dlatego procesy automatyczne należy przeciwstawiać nie procesom świadomym, lecz procesom nieautomatycznym. Aby to jednak było możliwe, potrzebny jest konsens, którego do tej pory nie osiągnięto, co do kry teriów czynności automatycznych (Bargh, 1994, 1999). Jak się wydaje, przy czyną braku porozumienia jest nie dość staranne rozróżnianie kilku różnych klas procesów automatycznych, charakteryzujących się nieco innymi właści wościami. Dwie z nich: procesy zautomatyzowane i procesy pierwotnie auto matyczne wydają się najważniejsze. Badania nad automatyzacją czynności i nabywaniem wprawy (skill acqusition) pozwoliły na zdefiniowanie pierwszej kategorii, czyli procesów zautomatyzowanych. W wyniku nabywania wprawy procesy pierwotnie nieauto matyczne wyzwalają się spod świadomej kontroli ze strony systemu poznaw czego (Anderson, 1983a; Schneider, Shiffrin, 1977a, 1977b; Shiffrin, Schneider, 1977). Automatyzacja tych czynności nie pozbawia ich jednak intencjonalności czy celowości, a jedynie pozwala zmniejszyć wysiłek umysłowy konieczny do ich
6.1. Czynności automatyczne i automatyzacja
j \ I ! ; l j [ j ( 1 I [ [ j [ [
f : j j
233
realizacji. Można je więc określić jako procesy wtórnie automatyczne. Ich przeciwieństwem są procesy pierwotnie automatyczne, czyli takie, które nie tylko są bezwysiłkowe, ale ponadto ich uruchomienie odbywa się w sposób całkowicie niezależny od naszej woli i intencji (Posner, Synder, 1975; Treisman, 1988; Murphy, Zajonc; 1994). Hasher i Zacks (1979) nazywają te dwie kategorie procesami słabo i silnie automatycznymi. Istnienie procesów silnie automa tycznych wykazano w wielu badaniach dotyczących czynności przeduwagowych. Podstawowymi kryteriami wyróżniającymi wszystkie procesy automatyczne byłyby więc: bezwysiłkowość (nie konsumują zasobów) i bezrefleksyjność (nie wymagają świadomej kontroli). Dodatkowo procesy pierwotnie automatyczne charakteryzowałyby się jeszcze brakiem intencji, czyli zamiaru ich wzbudzenia. Przykładem procesu pierwotnie automatycznego jest proces segregacji pola wzrokowego podczas przeszukiwania pola percepcyjnego w fazie przeduwagowej (zob. rozdz. 5.2.2). Jeśli obiekty w polu wzrokowym charakteryzują się cechami priorytetowymi, to cechy te automatycznie, niezależnie od naszej woli i intencji, stają się podstawą do podziału pola wzrokowego na część zawierającą obiekty wyposażone w te cechy i część, która takich bodźców nie zawiera (Treisman, 1993; Treisman, Sato, 1990). Przykładem procesu wtórnie automatycznego jest przeszukiwanie pola wzrokowego w fazie uwagowej ze względu na właściwości niepriorytetowe. Na skutek dużej liczby powtórzeń w warunku treningu jednorodnego (np. 36 serii po 106 powtórzeń każda; Shiffrin, Dumais, Schneider, 1981) poszukiwanie koniunkcyjne ze względu na cechy kształtu i koloru staje się równie szybkie, jak poszukiwanie proste tylko ze względu na cechę kształtu (zob. rozdz. 5.2.2, gdzie omówiono rodzaje przeszukiwania). Tak więc pierwotnie kontrolowany i szeregowy proces uwagowego przeszukiwania pola wzrokowego nabiera cech procesu bezuwagowego: wtórnie automatycznego, równoległego i pozbawionego kontroli. Automatyzm czynności poznawczych jest powszechną ich właściwością, rozwiniętą w długim procesie ewolucji naszych sprawności poznawczych (Bargh). Stanowi właściwość adaptacyjną, dzięki której możemy uwolnić część zasobów poznawczych przeznaczając je na inne, ważniejsze lub pilniejsze czyn ności. Niektóre procesy przetwarzania informacji ulegają automatyzacji w procesie nabywania wprawy (Shiffrin i Schneider), podczas gdy inne są automatyczne ze swej natury (Posner). Cecha automatyczności przysługuje zarówno procesom elementarnym, jak np. segregacja pola wzrokowego podczas jego przeszukiwania (Treisman), jak i procesom złożonym, jak np. spostrzeganie i komunikowanie emocji poprzez wyraz mimiczny (Zajonc). Poniżej zostaną omówione koncepcje procesów automatycznych, odnoszące się głównie do elementarnych procesów przetwarzania informacji. Odniesienie zawartych w tych teoriach poglądów do złożonych procesów afektywnych i społecznych znaleźć można w literaturze polskiej w pracach Aliny Kolańczyk i współpra cowników (2004) i Rafała K. Ohme (2003).
6.1.2. Schneidera i Shiffrina teoria kontinuum Większość koncepcji procesów automatycznych przeciwstawia je procesom kontrolowanym (Styles, 1997). W zasadzie jednak tylko wczesne teorie czyn-
234
Rozdział 6. Kontrola poznawcza
ności automatycznych (Atkinson, Shiffrin, 1968; Posner, Snyder, 1975; Schneider, Shiffrin, 1977a, 1977b; Shiffrin, Schneider, 1977) lokalizowały te procesy na dwóch biegunach pewnego kontinuum. Teorie te dotyczyły raczej procesów wtórnie automatycznych, zaś najważniejsze badania związane z rozwojem tych koncepcji dotyczyły efektów nabywania wprawy i „przesu wania się” procesów wzdłuż kontinuum od bieguna kontroli w stronę bieguna automatyzmu. Co ciekawe, tendencja ta nie była zgodna z oryginalnym poglą dem w tym zakresie i pierwszą definicją procesów automatycznych, sformuło waną przez Atkinsona i Shiffrina. Badacze ci zaproponowali bowiem podział procesów poznawczych na dwie klasy. W swojej koncepcji systemu poznaw czego przeciwstawili oni czynnościom kontrolowanym procesy będące włas nościami strukturalnymi systemu. Te ostatnie mają charakter stabilny, co oznacza, że są wykonywane zawsze w ten sam sposób, niezależnie od wymagań stawianych przez warunki zadania. Będąc niezmiennymi, pozbawione są jakiejkolwiek kontroli ze strony umysłu. Jako własności strukturalne systemu, procesy te, przynajmniej w części, wydają się pierwotnie automatyczne. Jednak dalsze rozważania Shiffrina i jego współpracowników koncentrowały się niemal wyłącznie na procesach wtórnie automatycznych. W eksperymentach poprzedzających ogłoszenie koncepcji, Shiffrin wraz ze swoimi współpracownikami (Shiffrin, Gardner, 1972; Shiffrin, McKay, Shaffer, 1976; Shiffrin, Pisoni, Castaneda-Mendez, 1974) starali się empirycznie wy kazać istnienie procesów nie wymagających kontroli poznawczej. Wykorzys tując paradygmaty podążania (zob. rozdz. 5.2.1) oraz przeszukiwania pola wzrokowego (zob. rozdz. 5.2.2) udało się im wykazać, że jeśli badani mają wykonywać zadanie selekcyjne na płytkim, sensorycznym poziomie przetwa rzania informacji (Craik, Lockhart, 1972), czynią to szybko i bezwysiłkowo, analizują równolegle duże porcje stymulacji i nie mają świadomości przebiegu tego procesu. Przy płytkim kryterium selekcyjnym nie miała znaczenia ani liczba jednocześnie prezentowanych na ekranie liter (zestawy 1-4 literowe; Shiffrin, Gardner, 1972), ani też liczba ich możliwych lokalizacji (9 pozycji dla liter lub 49 pozycji dla kropek; Shiffrin, McKay, Shaffer, 1976). Warunkiem skutecznego śledzenia kilku możliwych bodźców, pojawiających się w kilkudziesięciu możliwych lokalizacjach, było, po pierwsze, uprzedzenie badanych o możliwym położeniu bodźców, a po drugie - niewielka liczba samych bodźców. Podsumowując wyniki wczesnych badań Shiffrina i jego współpracowników, współautor koncepcji kontinuum procesów - Schneider (1984) - przyznaje, że replikacja tych wyników z użyciem zestawów liczniejszych niż 4 litery raczej nie ma szans powodzenia. Badani w eksperymentach Shiffrina byli też zdolni do reagowania na informacje pojawiające się w kanale ignorowanym, gdy reakcja na nie była w prosty sposób skojarzona z prezentowanym bodźcem i nie wymagała jego dalszego przetworzenia lub zapamiętania (Shiffrin, Pisoni, Castaneda-Mendez, 1974). Wyniki badań pozwoliły Shiffrinowi na stwierdzenie istnienia dwóch klas procesów poznawczych, różnych pod względem przebiegu: automatycznej detekcji i kontrolowanego przeszukiwania. Tym samym udało mu się rozróżnić wpływ procesów automatycznych i kontrolowanych w badaniach nad uwagową detekcją sygnałów. Podstawowym czynnikiem umożliwiającym dokonanie tego rozróżnienia była głębokość procesów przetwarzania informacji (Craik,
6.1. Czynności automatyczne i automatyzacja
235
Lockhart, 1972; zob. rozdz. 5.2.1). Procesy automatyczne operowały bowiem na płytkich poziomach przetwarzania, podczas gdy konieczność elaboracji bodźca na głębszych poziomach przetwarzania zmuszała umysł do uruchomienia kontroli poznawczej i wzbudzenia procesów kontrolowanych. Shiffrin i Schneider (1977; Schneider, Shiffrin, 1977a, 1977b) zapropono wali złożony model systemu poznawczego (ryc. 6.1), w ramach którego możliwe LTM
Ryc. 6.1. Model procesów automatycznych i kontrolowanych wg Shiffrina i Schneidera (1977; za Schneider, Shiffrin, 1977).
są dwie ścieżki przetwarzania informacji. Pierwsza z nich wymaga kontroli ze strony uwagi, ujawnia się w przypadku pojawienia się nowych bodźców i braku adekwatnych strategii postępowania. Nowość i nieprzewidywalna zmienność warunków zadania zmusza system poznawczy do kontrolowanego przetwa rzania informacji, zależnego od ograniczonych możliwości systemu poznawcze go (tj. ograniczonych zasobów uwagi i limitowanej pojemności pamięci ro boczej). Ten typ przetwarzania wymaga czasu i jest podatny na działanie zasady przetargu między przechowywaniem informacji a jej przetwarzaniem (McElree, Dosher, 1993). Druga ścieżka przetwarzania informacji w ramach systemu poznawczego związana jest z automatyczną detekcją układu bodźców i szybkim, pozbawionym kontroli uruchomieniem strategii (programów działania), za
236
Rozdział 6. Kontrola poznawcza
kodowanych w pamięci długotrwałej i dostosowanych do takiego układu wyzwalającego. Reakcja systemu poznawczego pojawia się wtedy bez udziału uwagi czy świadomości. Jest ona także niepodatna na modyfikacje za pomocą instrukcji werbalnych. Procesy kontrolowane mogą być dwojakiego rodzaju. Po pierwsze, są wśród nich procesy jawne, dostępne świadomości, takie jak intencjonalne przywoły wanie danych z pamięci czy też przeszukiwanie magazynu wiedzy według zadanego klucza. Wyróżnia je z jednej strony możliwość bieżącej modyfikacji, a z drugiej - niewielka wydajność i relatywnie najwolniejszy przebieg. Procesy tego rodzaju uaktywniają się np. wówczas, gdy zostaniemy poproszeni o wymie nienie nazw miesięcy według alfabetu. Po drugie, wśród procesów kontrolowa nych Shiffrin i Schneider wyróżniają procesy zawoalowane (veiled), niedostępne świadomości. Przykładem takiego procesu jest porównywanie elementów prze chowywanych w pamięci świeżej. Odróżnia je od procesów jawnych relatywnie szybki przebieg i, w konsekwencji, niewielkie możliwości w zakresie ich mody fikacji (ze względu na brak czasu). Procesy zawoalowane podlegają jednak zmianom na skutek instrukcji werbalnych lub nabywania wprawy (automaty zacja przeszukiwania pamięci świeżej; Szymura, Jagielski, w przygotowaniu). Wszystkie procesy kontrolowane nadzorują przepływ informacji między po szczególnymi blokami pamięci (koncepcja umysłu Shiffrina i Schneidera ma charakter modelu blokowego; zob. rozdz. 1). Procesy automatyczne są nieświadome i jednorodne z założenia. Mogą być inicjowane przez umysł, z czego zresztą wynika jedyne wymaganie, jakie sta wiają zasobom poznawczym - nawet procesy automatyczne wymagają mini malnej ilości zasobów czy też wysiłku mentalnego, chociażby w celu ich sensorycznej i efektorycznej realizacji (Kahneman, Chajczyk, 1983; Posner, Synder, 1975; Ryan, 1983). Gdyby procesy te przebiegały zupełnie bez udziału zasobów, to równolegle w systemie poznawczym mogłaby zachodzić nieskoń czona liczba automatycznych procesów przetwarzania informacji. Tymczasem jednoczesne wykonywanie tylko kilku czynności, nawet dobrze zautomatyzo wanych, może nam sprawić problemy. Wynika to z ograniczeń strukturalnych: liczba wejść sensorycznych i wyjść efektorycznych jest ściśle limitowana. Dla tego interferencja strukturalna jest niemożliwa do całkowitego zredukowania, nawet w przypadku procesów całkowicie automatycznych (Allport, Antonis, Reynolds, 1972). Automatyzacja pomaga natomiast ograniczyć rozmiar inter ferencji zasobowej, gdyż czynności automatyczne, jak się wydaje, nie walczą o tę samą, ograniczoną pulę energii mentalnej. Shiffrin i Schneider (1977; Schneider, Shiffrin, 1977a, 1977b) stwierdzili różnice w zakresie stopnia automatyzacji różnych procesów detekcji uwagowej. Badanym w ich eksperymentach (ryc. 6.2) prezentowano kolejno na ekranie monitora karty zawierające zestawy bodźców (od 1 do 4 elementów). Poszu kiwanymi sygnałami mogły być litery lub cyfry. O tym, jaki bodziec będzie sygnałem w kolejnej serii, badani byli informowani tuż przed jej rozpoczęciem. W warunku spójnym badanym prezentowano na kartach bodźce tej samej ka tegorii, z której pochodził sygnał. W warunku niespójnym bodźce pochodziły z innej kategorii (np. litery) niż sygnał (np. cyfra). Okazało się, że dla uzyskania wskaźnika poprawności detekcji na poziomie 95% potrzebne było tylko 80 ms prezentacji kart w warunku niespójnym i aż 400 ms w warunku spójnym. Na
6.1. Czynności automatyczne i automatyzacja
237
podstawie uzyskanych wyników Shiffrin i Schneider stwierdzili, że detekcja cyfry z tła liter jest procesem automatycznym, nie wymagającym kontrolowanego różnicowania bodźców i identyfikacji sygnału. W warunku niespójnym sygnał był bowiem jedynym bodźcem należącym do swojej klasy w całym materiale bodźcowym. Natomiast detekcja litery z tła utworzonego przez inne litery była procesem kontrolowanym, wymagającym identyfikacji poszczególnych bodźców i złożonej decyzji co do tego, czy zidentyfikowany bodziec spełnia kryterium selekcji. Uzyskane przez Shiffrina i Schneidera wyniki były zatem potwierdze niem ich wcześniejszych rezultatów dotyczących istnienia dwóch różnych
1
a
1 - prezentacja zbioru pamięciowego a - punkt fiksacji wzroku (500 ms) b, c - zbiór dystraktorów poprzedzający poszukiwany element (pierwsze trzy karty nie zawierające sygnału - b, dalsze karty, na których może pojawić się sygnał - c) d - zbiór zawierający element poszukiwany e, f - zbiór dystraktorów następujących po elemencie poszukiwanym (ostatnie dwie karty nie zawierające sygnału - f, dalsze karty, na których może pojawić się sygnał - e)
Ryc. 6.2. Schemat badania Shiffrina i Schneidera (1977; Schneider, Shiffrin, 1977) w warunku spójnym przy liczbie bodźców do zapamiętania wynoszącej 2 (powyżej) i niespójnym przy liczbie bodźców do zapamiętania wynoszącej 4 (poniżej).
238
Rozdział 6. Kontrola poznawcza
klas procesów poznawczych: automatycznych i kontrolowanych (Shiffrin, Gardner, 1972; Shiffrin, McKay, Shaffer, 1976; Shiffrin, Pisoni, Castaneda-Mendez, 1974). Badacze ci stwierdzili także, że nabywanie procesów automatycznych, czyli proces automatyzacji, wymaga długotrwałego, bardzo specyficznego treningu. W tym celu osoby badane wielokrotnie powtarzały proces kontrolowanej detekcji litery pochodzącej z jednego zbioru bodźców na tle liter pochodzących z całkiem innego zestawu. Badani potrzebowali aż 2100 serii testowych w warunku spójnej prezentacji znaków, aby osiągnąć poziom wykonania od początku notowany w warunku niespójnym (czyli 95% poprawnych decyzji przy czasie prezentacji 80 ms). Zatem w procesie automatyzacji czynności kontro lowane osiągnęły po długim treningu poziom wykonania czynności automatycz nych. Co więcej, wraz z kolejnymi powtórzeniami, proces kontrolowanego przeszukiwania coraz bardziej zbliżał się w zakresie empirycznych wskaźników swojego przebiegu do procesu automatycznej detekcji - stawał się np. niezależny od liczby bodźców prezentowanych w ramach pojedynczej karty. W kolejnym badaniu tej samej serii Fisk i Schneider (1981) stwierdzili, iż automatyzacja może usprawniać wykonanie takich kontrolowanych czynności, jak czujność czy koncentracja uwagi (zob. rozdz. 5.2.3). Podobne wynild zależ ności przedłużonej w czasie koncentracji uwagi od nabywania wprawy uzyskali jeszcze Kerkhof, van der Schaaf i Korving (1980). Wszystkie te rezultaty wy raźnie przemawiały na korzyść jednego z podstawowych stwierdzeń koncepcji Shiffrina i Schneidera - tezy o kontinuum procesów na wymiarze automatycz ne/kontrolowane i zależności położenia procesu na tym kontinuum od stopnia wtórnie nabytej wprawy w zakresie jego wykonywania. Dalsze badania procesów automatycznych i kontrolowanych prowadzone przez Schneidera i jego współpracowników dotyczyły interakcji tychże proce sów (Schneider, Fisk, 1982) oraz zależności transferu wprawy pomiędzy proce sami od stopnia ich automatyzacji (Schneider, Fisk, 1984). Zgodnie z wynikami tych badań, interakcja procesów automatycznych i kontrolowanych nie musi wyzwalać efektów interferencji. Do zaburzenia przebiegu procesów kontrolo wanych (procesy automatyczne są niemodyfikowalne!) może prowadzić automatyczna reakcja na niektóre elementy kontrolowanej sekwencji przetwa rzania. Taką automatyczną odpowiedź systemu poznawczego wywołują np. bodźce, które są zgodne z celem detekcji, ale występują w lokalizacji naka zującej - zgodnie z instrukcją - ich zignorowanie (Theeuwes i in., 1999; Godijn, Theeuwes, 2002; zob. rozdz. 5.2.5). Schneider i Fisk wykazali także, że możliwy jest transfer wprawy w zakresie zautomatyzowanej czynności przeszukiwania pola wzrokowego z jednego zestawu bodźców na inny. Dzięki transferowi czas reakcji dla nowego zestawu bodźców był wyraźnie krótszy, porównywalny z czasem, jaki wcześniej obserwowano w przypadku starego zestawu w wyniku procesu nabywania wprawy. Co więcej, przeszukiwanie starych i nowych zestawów miało - jako zadanie doładowujące - podobny wpływ (w sensie konieczności inwestowania zasobów uwagi) na wykonanie zadania prioryteto wego w paradygmacie zadań jednoczesnych (zob. rozdz. 5.2.4). Shiffrin, Schneider i ich współpracownicy dostarczyli więc przekonujących argumentów na rzecz tezy o istnieniu kontinuum procesów kontrolowanych i wtórnie automatycznych. Udało im się również wykazać istnienie dwóch
6.1. Czynności automatyczne i automatyzacja
239
Tab. 6.1. Porównanie właściwości procesów automatycznych i kontrolowanych wg Schneidera, Dumasa i Shiffrina (1984). Właściwość
Procesy automatyczne
Procesy kontrolowane
zasoby systemu
nie wymagane
wymagane
kontrola
niekompletna
kompletna
komponentowość
holistyczne
parcjalne
modyfikacja
trudna
łatwa
szeregowość/ równoległość
równoległe
szeregowe
poziom wykonania
wysoki
niski
świadomość
niska
wysoka
uwaga
nie wymagana, ale możliwa
wymagana
wysiłek
niewielki, jeśli jakikolwiek
duży
rodzajów czynności automatycznych: takich, które są automatyczne pierwotnie (z natury rzeczy, w sposób wrodzony) i takich, które automatyzacji dopiero j wymagają (tab. 6.1). Proces nabywania wprawy zdaje się wymagać wiele wy siłku i czasu ze strony systemu poznawczego, ale w jego konsekwencji procesy i' kontrolowane mogą zostać zautomatyzowane aż do postaci typowej dla pro cesów pierwotnie automatycznych, co można zaobserwować analizując szybi kość i poprawność ich wykonania.
6.1.3. Logana teoria rywalizacji egzemplarzy i i ! ! t ś
! ; [ j;' ( f i i | i |
Zgodnie z teorią kontinuum, jednym z podstawowych kryteriów procesów automatycznych, wynikającym wprost z przeciwstawienia tych procesów procesom kontrolowanym, jest ograniczona możliwość sprawowania nad nimi kontroli (Schneider, Dumais, Shiffrin, 1984; tab. 6.1). Wprawdzie autorzy koncepcji kontinuum dopuszczali pewne formy nadrzędnej kontroli poznawczej nad automatyzmami, związane np. z możliwością kontrolowanego uruchomienia procesu wtórnie automatycznego, jednak w zasadzie byli zdania, iż raz uruchomiony proces automatyczny nie podlega kontroli (balistyczność automatyzmów; Hasher, Zacks, 1979). Przeciwnego zdania byli Logan (1980, 1982; Logan, Zbrodoff, 1998) oraz Tzelgov wraz ze współpracownikami (Tzelgov, Henik, 1995; Tzelgov, Henik, Leister, 1990), którzy wskazali na możliwości kontroli procesów automatycznych, a przynajmniej modyfikowania ich w trakcie przebiegu. Gordon Logan (1982) wykazał np., że osoby biegle piszące na maszynie (proces wtórnie automatyczny) są w stanie szybko przerwać pisanie na skutek pojawienia się błędu lub też w odpowiedzi na specjalny sygnał, który zgodnie z instrukcją zmuszał ich do zatrzymania wykonywania czynności („sygnał stopu”; paradygmat 6.1). Osoby badane wykonywały zaledwie jedno bądź dwa zbędne uderzenia w klawisze po tym, jak przekazano im sygnał, że powinny
240
Rozdział 6. Kontrola poznawcza
przerwać bieg automatycznej czynności. Ladefoged, Silvestrien i Papcun (1973) oraz Levelt (1983) ustalili, że zatrzymanie na dany znak tak dobrze zauto matyzowanej czynności, jak mówienie, również jest możliwe. Najkrótsze zaobserwowane opóźnienie wyniosło tym razem jedną sylabę. Na podstawie tych wyników Logan (1982, 1988) stwierdził, iż możliwe jest kontrolowanie czynności automatycznych, a przynajmniej procesów wtórnie automatycznych, do momentu uruchomienia specyficznej reakcji motorycznej lub werbalnej w odpowiedzi na prezentowany bodziec. Paradygmat 6.1
Sygnał stopu Paradygmat sygnał stopu (stop-signal; Logan, 1982) wykorzystuje się w bada niach nad hamowaniem dobrze wyuczonych, silnie zautomatyzowanych czyn ności, głównie motorycznych. Osoby badane wykonują taką czynność w warunkach presji czasu. W różnych, nieprzewidywalnych momentach uczestnikom ekspery mentu podaje się umówiony sygnał, który nakazuje im przerwać wykonywaną do tej pory czynność. Początkowe badania dotyczyły pisania na maszynie (Logan, 1982) i mówienia (Levelt, 1983). Zachowanie osób badanych można w tych warunkach interpretować jako efekt „wyścigu” (teoria rywalizacji egzemplarzy; Logan, 1988, 2002) między dwoma procesami. Pierwszy jest wzbudzany przez instrukcję i bodźce określające rodzaj zadania, a jego efekt to aktywacja odpo wiednich struktur poznawczych i wykonanie oczekiwanej czynności poznawczej. Drugi proces jest wzbudzany przez sygnał zatrzymania (stop), powodując po wstrzymanie się od dalszego wykonywania czynności, czyli zahamowanie dominującej reakcji (Logan, Cowan, 1984). W zgodzie z teorią rywalizacji egzem plarzy, badani są w stanie tym szybciej zahamować wykonywaną czynność, im krótszy jest interwał pomiędzy pojawieniem się bodźca wzbudzającego wykony waną czynność a pojawieniem się sygnału stopu. Powstrzymanie wykonywanej czynności jest jednak możliwe nawet przy relatywnie długich interwałach (De Jong i in., 1990). Interesujące modyfikacje w zakresie omawianego paradygmatu przedstawił De Jong (De Jong, Coles, Logan, 1995). Zamiast mówienia czy pisania na ma szynie, badani wykonywali prostą czynność motoryczną, polegającą na ściskaniu umieszczonego w ich dłoni dynamometru. Sygnałem do zatrzymania był specjalnie dobrany dźwięk. De Jong porównał trzy rodzaje hamowania dominującej reakcji: przez zwykłe powstrzymanie się od jej wykonywania (stop ogólny; stop-all), przez powstrzymanie się od jej wykonania i wzbudzenie w jej zastępstwie reakcji alter natywnej (stop-zmiana; stop-change; zamiast ściskania dynamometru badani musieli nacisnąć nogą specjalny pedał) oraz przez powstrzymanie się od jej wy konania, ale tylko w zakresie jednego z dwóch efektorów (stop selektywny; selective-stop\ badani musieli powstrzymać się od reagowania jedną z rąk, zazwyczaj dominującą). Badania Logana (1985) wykazały, że hamowanie dominu jącej reakcji jest znacznie trudniejsze w warunku drugim (stop-zmiana) niż pierw szym (stop ogólny), natomiast w eksperymencie De Jonga, Colesa i Logana (1995) stwierdzono, że najtrudniejsze jest hamowanie reakcji w zakresie tylko jednego z dwóch możliwych efektorów (stop selektywny).
6.1. Czynności automatyczne i automatyzacja
j
j
241
Paradygmat sygnał stopu może być używany w badaniach nad różnicami indywidualnymi w zakresie skuteczności procesów kontroli i hamowania. Im sku teczniejsi jesteśmy w kontrolowaniu własnych procesów poznawczych, oczywiście % tylko w aspekcie hamowania, tym krócej kontynuujemy dobrze wyuczoną czyn- I ność, mimo odebrania sygnału stopu. Tak zdefiniowany wskaźnik skuteczności / kontroli pogarsza się wraz ze starzeniem się, a także w niektórych stanach choro bowych. Obserwujemy wówczas wydłużenie czasu, w którym czynność jest nadal wykonywana, mimo sygnału stopu. W skrajnych przypadkach obserwuje się nawet ignorowanie sygnałów stopu. Realistycznym odpowiednikiem takiego zachowania jest niemożność przerwania raz uruchomionej wypowiedzi, mimo odbieranych z otoczenia sygnałów, że mówimy niepotrzebnie lub nie na temat.
;■
Efekt Stroopa (1935; paradygmat 6.2) długo uważano za silny argument za balistycznością procesów automatycznych. Na powszechność takich interpreta; cji zwracają uwagę np. Tzelgov, Henik i Leister (1990). Logan (1980; Logan, i Zbrodoff, 1998) stwierdził jednak, że jeśli badanym prezentuje się listę wymie szanych bodźców spójnych (np. wyraz „czerwony” napisany czerwonym atramentem) i bodźców konfliktowych (np. wyraz „czerwony” napisany zielo nym atramentem), to wielkość efektu Stroopa zależy od proporcji tych bodźców. Gdy lista zawierała tylko 20% bodźców konfliktowych (czyli 80% bodźców spójnych), efekt Stroopa był istotnie większy niż wtedy, gdy na liście było aż 80% bodźców konfliktowych (czyli tylko 20% bodźców spójnych). Wynika stąd, że łatwiej nam zahamować narzucającą się, automatyczną reakcję, gdy jest ku temu stosunkowo wiele okazji. Ale najistotniejsze jest to, że siła automatyzmu | zależy od proporcji bodźców odpowiedniego rodzaju, a zatem - że procesy automatyczne nie są całkowicie balistyczne. Jednym z warunków redukcji efek tu Stroopa jest też użycie niewielkiej liczby kolorów w konstrukcji bodźców gdy liczba kolorów wzrasta, wpływu proporcji bodźców spójnych do konflikto wych na wielkość efektu Stroopa z reguły się nie stwierdza (Logan, Zbrodoff, Williamson, 1984). Paradygmat 6.2
Efekt Stroopa
Efekt interferencji Stroopa (1935) jest jednym z najsłynniejszych zjawisk w psy chologii eksperymentalnej. Na przełomie lat 1980/1990 przywoływano go w blisko 80 pracach rocznie. Tendencja ta ma ciągle charakter wzrostowy. Dla porównania równie słynny efekt świeżości, odkryty przez Petersona i Peterson (1959), przywoływano tylko w 30 publikacjach rocznie i liczba ta była dość stała (MacLeod, 1992). Zadanie Stroopa wykorzystywano jako metodę badawczą w przypadku ponad 20 prac rocznie. Popularność tego efektu wynika z dwóch przyczyn. Po pierwsze, jest on zawsze istotny statystycznie, silny i powtarzalny. Po drugie, pomimo 70 lat badań nad tym zjawiskiem, nadal pozostaje on fenomenem nie do końca wyjaśnionym co do swego podłoża i mechanizmu (MacLeod, 1991).
242
Rozdział 6. Kontrola poznawcza
Istotą efektu Stroopa jest utrudnienie w przetwarzaniu bodźców niespójnych (np. słowo „czerwony” napisane zielonym atramentem) w porównaniu z bodźcami spójnymi (np. słowo „czerwony” napisane czerwonym atramentem; zob. ryc. 6.3). Osoby badane czytają słowa spójne lub niespójne, albo nazywają kolor atramentu użyty do napisania słów spójnych lub niespójnych. Czytanie słów zwykle wymaga mniej czasu niż nazywanie kolorów, ponieważ jest czynnością silnie zautomatyzo waną. Jeśli chodzi o nazywanie kolorów, czynność ta jest zwykle znacznie dłuższa w przypadku słów niespójnych, w porównaniu ze spójnymi. Nazwano to efektem interferencji, a jego miarą jest różnica między średnim czasem, potrzebnym na nazwanie koloru słowa niespójnego, a średnim czasem potrzebnym na nazwanie koloru słowa spójnego. Jeśli w badaniu bierze udział bardzo heterogeniczna próba, w której skład wchodzą osoby o różnym podstawowym tempie reagowania, lepszą miarą efektu interferencji jest proporcja średnich czasów reakcji, a nie ich różnica.
□□□ czerw ony
czerwony
okno
pająk
czerwony
czerwony >:^n:^V.-.W^L.niipV,Tr^.'WiJ„nń
Ryc. 6.3. Bodźce używane w badaniach nad efektem interferencji Stroopa (1935) oraz rozkłady czasów reakcji w warunkach neutralnym i konfliktowym. Drugi z bodźców każdej pary jest bodźcem konfliktowym, podczas gdy pierwszy jest bodźcem spójnym. Interferencja może dotyczyć kierunku, znaczenia, aspektu emocjonalnego lub układu przestrzennego bodźców.
Interpretacja efektu interferencji Stroopa wymaga starannej analizy procesów, biorących udział w jego powstawaniu. Osoba badana musi zahamować nawykową, dobrze wyuczoną czynność (przeczytanie słowa), aby zamiast niej wykonać inną czynność, w ogóle nie wyuczoną i dość „egzotyczną” (nazwanie koloru atramentu,
6.1. Czynności automatyczne i automatyzacja
243
' jakim napisane jest to słowo). Długotrwały proces nabywania wprawy w czytaniu polega m.in. na tym, aby nauczyć się ignorować to, w jaki sposób dane słowo jest napisane (np. literami dużymi czy małymi, pisanymi czy drukowanymi, czcionką Courier czy Times Roman), a skupić się na jego znaczeniu. W eksperymencie psychologicznym nagle trzeba zachować się zupełnie inaczej, co dla wieiu osób stanowi nie lada problem, a dla wszystkich jest źródłem efektu interferencji. Dlatego : im słabszy ów efekt, tym silniejsza i skuteczniejsza kontrola poznawcza. Osoba zdolna do uruchomienia silnych, wydajnych procesów kontrolnych szybciej | zahamuje niepotrzebną reakcję, dając wolną drogę reakcji wymaganej instrukcją eksperymentu. W rezultacie czas potrzebny na zareagowanie w warunku nie1 spójnym będzie u takiej osoby relatywnie krótki, choć oczywiście znacząco dłuższy niż w warunku spójnym. Jednak relatywne skrócenie czasu reakcji w warunku niespójnym przełoży się na obniżenie wartości wskaźnika interferencji. Natomiast osoba nie dysponująca silnymi, wydajnymi procesami kontroli, będzie miała duże trudności z zahamowaniem niepotrzebnej reakcji. Nawet jeśli w końcu to uczyni, będzie potrzebowała więcej czasu, co przełoży się na relatywnie długi czas reakcji w warunku niespójnym i w konsekwencji - na podwyższenie wskaźnika inter ferencji. Badania nad różnicami indywidualnymi zwykle pokazują, że w warunku spójnym wszyscy reagują mniej więcej z taką samą szybkością, choć oczywiście i tu ujawniają się cechy indywidualne. Jednak dopiero w warunku niespójnym wystę puje prawdziwe wielkie zróżnicowanie. Dlatego relatywne wydłużenie lub skrócenie czasu reakcji w warunku niespójnym decyduje o wielkości efektu interferencji, a wielkość ta świadczy o silnej (mała wartość efektu) lub słabej (duża wartość efektu) kontroli poznawczej. Taką samą logikę interpretacji stosujemy wobec wszystkich zadań, zawierających aspekt interferencji. Natomiast w przypadku po przedzania negatywnego interpretacja jest odmienna (zob. paradygmat 6.3). Współczesne wersje zadania Stroopa nieco się różnią od oryginału. W pierw szym badaniu John Ridley Stroop (1935) porównywał szybkość czytania słów oznaczających kolory, napisanych czarnym atramentem (warunek kontrolny) albo atramentem niezgodnym z ich znaczeniem (bodziec niespójny). Badani potrzebo wali średnio 23 ms więcej na przeczytanie wyrazu niespójnego niż wyrazu kon trolnego. Efekt interferencji, wynikający z niespójnych aspektów bodźca, okazał się nieistotny statystycznie. W badaniu drugim Stroop polecił badanym nazywać kolor atramentu, jakim napisany był wyraz oznaczający kolor, zamiast czytać słowo. Oprócz tego uczestnicy eksperymentu nazywali kolory prostokątów, w tej samej liczbie i układzie kolorów, jaki został utworzony na liście bodźców niespójnych. Badani potrzebowali średnio 470 ms więcej na nazywanie koloru atramentu bodźca niespójnego w porównaniu do kolorowego paska (efekt Stroopa). W badaniu trze cim Stroop poddał osoby badane procesowi automatyzacji czynności nazywania ; kolorów. Udało mu się zaobserwować, że osiem dni praktyki zmniejsza efekt inter ferencji średnio o 336 ms, co jednak nie zredukowało statystycznej istotności tego efektu. Co więcej, badani, którzy nabyli wprawę w nazywaniu kolorów, wykazali również istotny efekt interferencji w przypadku czynności czytania bodźców niespójnych - wyrazy te czytali średnio 308 ms na bodziec dłużej niż w warunku, w którym były one napisane czarnym, zwykłym atramentem (tzw. odwrócony efekt Stroopa). Ten ostatni efekt zanikał jednak już w drugim postteście (wielkość efektu interferencji średnio 52 ms na bodziec, różnica nieistotna statystycznie). Dokładnej
244
Rozdział 6. Kontrola poznawcza
replikacji badań Stroopa (1935) dokonał MacLeod (1986). Uzyskał on analogiczne efekty, a różnice w zakresie wielkości efektu interferencji w porównaniu do ekspe rymentów Stroopa nie przekraczały 80 ms na pojedynczy bodziec niespójny. Zadanie Stroopa poddawano licznym modyfikacjom (przegląd w: MacLeod, 1991). Najbardziej znane z nich to: (1) Stroop emocjonalny (zob. np. Williams, Mathews, MacLeod, 1996) zadaniem osób badanych jest nazwanie koloru, jakim napisano słowa kojarzące się z lękiem (np. pająk, wąż), albo rzeczami lub sytuacjami o negatywnym zabarwieniu emocjonalnym (np. gwałt, choroba). (2) Stroop rozproszony (zob. np. Kahneman, Chajczyk, 1983) - zadaniem osób badanych jest nazwanie koloru obiektu (np. plamy, ramka) występującego w towarzystwie wyrazu oznaczającego zupełnie inny kolor. (3) Stroop figuralny (zob. np. Navon, 1977) - osoby badane widzą figurę zbudowaną z innych figur (np. dużą literę H zbudowaną z liter K o mniejszym rozmiarze: zob. ryc. 6.4). Zadanie polega na nazwaniu figury stanowiącej tworzywo, a zignorowaniu figury głównej. RRRRRRRRRRR RRRRRRRRRRR RRRRRRRRRRR RRRRRRRRRRR RRRRRRRRRRR RRRRRRRRRRR RRRRRRRRRRR RRRRRRRRRRR RRRRRRRRRRR
KKK KKK KKK KKK KKK KKK KKK KKK KKKKKKKKKKK KKK KKK KKK KKK KKK KKK KKK KKK
*************
************* *** *** *** *** ***
*** *** zzz zzz zzz zzzz zzz zzzzz zzz zzz zz zzz zz zzz zzz zz zzz zzz zzzzz zzzz zzz zzz zzz
Ryc. 6.4. Bodźce spójne i niespójne używane w badaniach Navona (1977).
(4) Stroop kierunkowy (zob. np. Shilling, Chetwynd, Rabbitt, 2002) - zada niem osób badanych jest reakcja za pomocą odpowiedniego klawisza kursora klawiatury na strzałkę pokazującą kierunek przeciwny niż klawisz. Osoba badana widzi np. strzałkę skierowaną ku górze, a ma zareagować klawiszem reprezentu jącym ruch kursora w dół. We wszystkich badaniach z wykorzystaniem zadania Stroopa, niezależnie od modyfikacji, uzyskuje się efekt interferencji. Jednak efekty te wykazują z reguły swoją specyficzność, ponieważ nie udało się stwierdzić występującej między nimi korelacji (Shilling, Chetwynd, Rabbitt, 2002).
6.1. Czynności automatyczne i automatyzacja
245
I Ponadto Tzelgov i Henik (1995; Tzelgov, Henik, Leister, 1990) wykazali, że ! wielkość efektu Stroopa zależy od ogólnej kompetencji językowej. W przypadku I języka ojczystego krzywa obrazująca tę zależność ma postać odwróconego „U”. I Relatywnie niewielki efekt interferencji stwierdza się w przypadku osób o niskiej I i wysokiej biegłości w posługiwaniu się językiem, podczas gdy największy efekt Stroopa - u osób o przeciętnej kompetencji. Tzelgov i Henik wykazali również, że redukcja efektu Stroopa w przypadku list zawierających niewielki procent bodźców spójnych możliwa jest tylko w języku ojczystym (drugi wa runek redukcji efektu Stroopa; Tzelgov, Henik, Leister, 1990). Dlatego też za; równo Logan, jak i Tzelgov oraz Henik sugerują, aby automatyczność i kontrolę : traktować jak dwa aspekty dobrze wyuczonego zachowania, wskazując ich ■ różną funkcję w ramach systemu poznawczego, ale nie przeciwstawiając ich, tak i jak czynili to Shiffrin i Schneider, na podstawie długości procesu nabywania ; wprawy. Zaproponowana przez Logana (1988,1992,2002) teoria rywalizacji egzemj- plarzy (instances), zwana również teorią przypadków, uwzględnia możliwość kontroli procesów automatycznych. Według autora, procesy te charakteryzują się określonym zestawem właściwości. Po pierwsze, są one autonomiczne, gdyż mogą być uruchamiane oraz wykonywane nieintencjonalnie. Detekcja bodźca I powoduje natychmiastowe przywołanie z pamięci wszystkich związanych z nim ; informacji, zarówno deklaratywnych (dotyczących znaczenia bodźca), jak f i proceduralnych (dotyczących procedur postępowania z bodźcem). Decyzji i o przywołaniu z pamięci nie towarzyszy nasza intencja ani wola. Po drugie, { procesy automatyczne mogą podlegać kontroli, gdyż można je wykorzystywać f intencjonalnie. Autonomiczny proces przywoływania z pamięci długotrwałej | można modyfikować np. poprzez stosowanie odpowiednich wskazówek przyt woławczych, uprzednio skojarzonych z odpowiednimi śladami pamięciowymi i w procesie uczenia. Autonomiczność funkcjonowania procesów automatyczp nych polega więc na nieintencjonalnym uruchomieniu dostępu do trwałych f reprezentacji umysłowych. Efekty tego dostępu można jednak intencjonalnie j. kontrolować aż do momentu uruchomienia konkretnych reakcji motorycznych | czy werbalnych, których powstrzymanie jest już niemożliwe. Po trzecie, ze I względu na natychmiastowość dostępu do pamięci długotrwałej, w przypadku | procesów automatycznych występują duże ograniczenia w zakresie pamiętania | tego, co było przetwarzane i w jaki sposób przetwarzanie informacji się doj konywało. Właściwościami procesów automatycznych są więc, po czwarte, brak r introspekcyjnej świadomości ich przebiegu oraz, po piąte, bezwysiłkowość. Najważniejszym konstruktem koncepcji Logana jest pojęcie „egzemplarz”. I Stanowi on jednostkową, trwałą reprezentację umysłową pojedynczego bodź| ca (S) i wymaganego sposobu reakcji (R). Egzemplarz jest kodowany, przechor wywany oraz przywoływany w postaci trwałej wiedzy, odrębnie od pozostałych | egzemplarzy tej samej sytuacji bodźcowej S-R i innych możliwych sytuacji, t Każdy egzemplarz składa się z umysłowego odzwierciedlenia czterech ele| mentów: celu aktywności, bodźca związanego z realizacją tego celu, interpretaI cji nadawanej bodźcowi w kontekście celu, oraz odpowiedzi udzielanej w sto| sunku do bodźca. Logan (2002) wyraźnie odwołuje się więc w swojej koncepcji | procesów automatycznych do egzemplarzowej teorii trwałych reprezentacji I umysłowych (zob. rozdz. 3), obowiązującej, jego zdaniem, zarówno w zakresie
1
Ii&
246
Rozdział 6. Kontrola poznawcza
pamięci semantycznej (znaczenie S i R), jak i pamięci epizodycznej (przypadki stosowania R wobec S). Sprzeciwia się natomiast prototypowej koncepcji re prezentacji świata w umyśle, jako że prototypy niekoniecznie odzwierciedlają konkretne obiekty czy zjawiska świata rzeczywistego, mogąc być sztucznymi konstruktami, zbudowanymi na podstawie uśrednionych czy najczęstszych właściwości szerszej klasy sytuacji bodźcowych. W przeciwieństwie do proto typu, egzemplarz zawsze jest odzwierciedleniem konkretnego elementu rze czywistości. Egzemplarze, jako trwałe reprezentacje umysłowe, podlegają procesowi nabywania - są one gromadzone w ramach trwałej wiedzy zgodnie z czterema podstawowymi prawami. Po pierwsze, pojawienie się odrębnego bodźca powo duje zapis odrębnego egzemplarza w pamięci. Po drugie, odmienne pojawienie się tego samego bodźca powoduje również ukształtowanie się odrębnej reprezentacji egzemplarzowej. Po trzecie, gromadzenie egzemplarzy jest tożsa me z procesem nabywania wprawy w zakresie wykonywania czynności odpo wiadających tworzonym dla nich reprezentacjom egzemplarzowym. Nabyta wprawa ma wpływ zarówno na wybór konkretnej reakcji na pojawiający się bodziec, jak i na szybkość tej reakcji. Po czwarte, zależność szybkości reakcji od wprawy opisuje opadająca krzywa wykładnicza (Logan, 1988). Pokazuje ona, że początkowo efekty gromadzenia egzemplarzy i dowodów ich skuteczności wy wołują gwałtowne skrócenie czasów reakcji (ryc. 6.4). Jednak dalsze ćwiczenie w coraz mniejszym stopniu przyczynia się do poprawy wykonania, mierzonej zwykle skracającym się czasem reagowania. W końcu, dalsze gromadzenie dowodów potwierdzających efektywność wyuczonej procedury reagowania na bodźce nie przyczynia się już do poprawy wykonania, co oznacza, że krzywa osiągnęła poziom asymptoty. W ramach egzemplarzy gromadzona jest wiedza dotycząca sposobów reagowania (response-set) , a nie kategorii bodźców (stimulus-set). Świadczy o tym stwierdzony przez Logana (1990) brak transferu wprawy w warunkach całkowitej zmiany sposobów reagowania na uprzednio prezentowane bodźce. W wyniku takiej zmiany wszystkie nabyte „egzemplarze reakcji” przestają być adekwatnymi odpowiedziami na aktualnie prezentowane bodźce. W momencie pojawienia się bodźca system poznawczy ma do wyboru dwa sposoby przetwarzania informacji: zastosowanie ogólnego algorytmu reakcji dla bodźców podobnego typu lub odwołanie się do skutecznego, znanego z prze szłości sposobu poradzenia sobie z bodźcem. Jest to wybór między automatycz nym przywołaniem procedury reakcji z pamięci a kontrolowanym przetwarza niem danych przez system uwagi. Jeśli przetarg wygra pamięć, proces przebiega automatycznie, a w obrębie wiedzy trwałej pojawi się zapis o efektywności zastosowania danego egzemplarza. Jeśli zaś pamięć nie dysponuje jeszcze od powiednim do sytuacji bodźcowej egzemplarzem (dzieje się tak w sytuacjach nowych), to przetarg wygrywa uwaga, a po wykonaniu czynności - w ramach trwałej wiedzy - pojawia się pierwszy egzemplarz, będący efektem kontrolowa nego przetwarzania informacji i zastosowania ogólnych algorytmów radzenia sobie w przypadku szerokiej klasy zjawisk, do której należy prezentowany bodziec. W konsekwencji Logan (1988) stwierdził, że problemy z wykonaniem nowych zadań nie wynikają z braku zasobów (rzekomo zbyt duże wymagania), ale raczej z braku wiedzy (braku egzemplarzy).
6.1. Czynności automatyczne i automatyzacja
247
Ryc. 6.5. Poprawa poziomu wykonania zadania (coraz krótszy czas reakcji) jako wykładnicza funkcja długości czasu nabywania wprawy (za: Logan. 1988). Każda funkcja zaczyna się w tym samym punkcie, reprezentującym początkowy poziom wykonania, i asymptotycznie zbliża się do poziomu idealnego. Każdej krzywej, reprezentującej pojedynczy przypadek, odpowiada określona wartość wykładnika.
I
I | i | | I
Automatyczna reakcja ze strony pamięci jest zdeterminowana przez pierw szy przywołany egzemplarz. Detekcja bodźca, oprócz rywalizacji pomiędzy kontrolowanymi procesami uwagowymi a automatycznymi procesami pamię ciowymi, prowokuje więc „wyścig” o pierwszeństwo między dostępnymi w pamięci egzemplarzami. Nagrodą jest uruchomienie sposobu postępowania z bodź cem zgodnie z zakodowaną w egzemplarzu procedurą. O zwycięstwie w wyścigu decyduje liczba dowodów dotychczasowej, udanej stosowalności egzemplarza w odpowiedzi na bodziec. Każde udane współwystąpienie bodźca i specyficznej reakcji zwiększa wagę egzemplarza reprezentującego to konkretne zachowanie. Nabywanie wprawy polega więc na zwiększaniu wagi dominującego egzempla rza, tak by jego zwycięstwo w rywalizacji przypadków nie podlegało wątpliwoś ci. Model wyścigu egzemplarzy dobrze wyjaśnia zarówno szybkość procesów wtórnie automatycznych (tym większą, im większa jest wprawa w zakresie wykonywanych czynności), jak też podatność na błędy w przypadku bodźców konfliktowych (np. w zadaniu Stroopa). Bodźce takie uruchamiają tyle rywali zujących ze sobą ścieżek, ile konfliktowych aspektów stymulacji zawierają. Ze względu na brak jednego dominującego egzemplarza w reakcji na bodziec mogą pojawić się błędy. Reakcja może być wtedy korygowana przez instrukcję dla osoby badanej lub jej intencjonalną decyzję, ale nie bez ponoszenia kosztów czasowych, wynikających z uruchomienia uwagowych mechanizmów kontrol nych (zob. rozdz. 6.2). Logan potwierdził słuszność swojej koncepcji w kilku badaniach z wykorzystaniem różnych prostych zadań, w których badani nabywali wprawę. Były to np. zadania na podejmowanie decyzji leksykalnych (Logan, 1988), testy arytmetyczno-alfabetyczne, wymagające sprawdzania poprawności równań matematycznych, w których występowały litery i cyfry, np. A + 2 = C? (Logan, 1992; Logan, Klapp, 1991), jak również zadanie Stroopa (Logan, 1980; Logan,
248
Rozdział 6. Kontrola poznawcza
Zbrodoff, 1998). Autor zawsze prosił osoby badane o wykonanie kilkunastu serii zadań tego samego typu, gdyż podobnie jak Shiffrin i Schneider wierzył, że tylko trening jednorodny umożliwia szybkie i skuteczne nabywanie wprawy. Mierzył czas reakcji jako funkcję automatyzacji. Wszystkie badania Logana potwierdziły, iż opadająca krzywa wykładnicza dobrze opisuje proces automa tyzacji czynności w poszczególnych zadaniach. Na przykład w teście arytmetyczno-alfabetycznym (Logan, 1992) badani początkowo rzeczywiście stosowali algorytm dodawania. Czas weryfikacji równania wyrażonego ogólną formułą „litera + cyfra = litera” zależał od odległości w alfabecie dwóch liter wystę pujących w równaniu - im większa odległość, tym dłuższy czas reakcji (przyrost 400-500 ms na pozycję alfabetu). Wraz z kolejnymi pozycjami testu, gdy badani uczyli się, które przypadki równań są fałszywe, a które prawdziwe, czas reakcji ulegał znacznemu skróceniu. Przyrost wprawy, duży z początku wykonywania testu i niewielki na zakończenie procesu automatyzacji, dobrze opisywała opa dająca krzywa wykładnicza. Pod koniec procesu nabywania wprawy nie stwier dzono już różnic w weryfikowaniu równań, niezależnie od manipulowanej odległości pomiędzy literami równania. Badani weryfikowali poszczególne po zycje testowe automatycznie, odwołując się do zgromadzonych w pamięci dłu gotrwałej egzemplarzy poprawnych równań. Z koncepcji rywalizacji egzempla rzy, a szczególnie z definicji samego konstruktu egzemplarza wynika, iż czyn ności automatyczne pojawiają się tylko w odpowiedzi na specyficzne bodźce wyzwalające. Wobec tego transfer wprawy w zakresie wykonywanej czynności z jednej grupy bodźców na inną nie powinien w ogóle zaistnieć (Logan, 1990). Stwierdzić można zatem, że zgodnie z teorią rywalizacji egzemplarzy więk sza wprawa w wykonywaniu czynności poznawczej może wiązać się zarówno z wtórną automatyzacją tej czynności, jak i z możliwością sprawowania nad nią większej kontroli. Automatyczność i kontrolowalność nie są dwoma przeciw nymi biegunami kontinuum procesów, ale dwoma aspektami tego samego zjawiska nabywania wprawy. Teoria rywalizacji egzemplarzy podkreśla, iż automatyzmy mogą wiązać się raczej z funkcjonowaniem pamięci (dostępność egzemplarzy), a nie funkcjonowaniem uwagi (dostępność zasobów). Uwaga wiąże się z wtórną automatyzacją o tyle, o ile ułatwia proces nabywania egzem plarzy i zmiany ich relatywnych wag (Logan, Etherton, 1994; Logan, Taylor, Etherton, 1996).
6.1.4. Konsekwencje automatyzacji czynności Automatyzacja czynności ma wiele pozytywnych konsekwencji. Część z nich przedstawiono już powyżej. Dzięki automatyzacji uwalniane są zasoby systemu, które można przeznaczyć na wykonywanie innych zadań. Nabywanie wprawy prowadzi też do istotnego przyspieszenia i zwiększenia poprawności reagowa nia. Efekty te opisuje opadająca krzywa wykładnicza. W konsekwencji auto matyzacja czynności powinna prowadzić również do redukcji efektu przetargu między szybkością a poprawnością, co należy uznać za kolejny pozytywny skutek nabywania wprawy. Efekt przetargu między szybkością a poprawnością występuje w zadaniach z presją czasu (Snodgrass, Luce, Galanter, 1967). W takich warunkach badani
6.1. Czynności automatyczne i automatyzacja
249
z reguły nie są w stanie uzyskać dobrych wskaźników wykonania zarówno w zakresie szybkości, jak i z poprawności reakcji (Meyer i in., 1988). Przetarg między szybkością a poprawnością jest podstawową zasadą funkcjonowania elastycznego filtra uwagi (Johnstona, 1978; Johnston, Heinz, 1978; zob. rozdz. 5). Im płytszy poziom analizy bodźców, tym szybszy i mniej poprawny proces selekcji informacji. Na głębokich poziomach przetwarzania informacji analizy selekcyjne są znacznie bardziej złożone, wymagają więcej czasu, ale w konsekwencji - są też bardziej poprawne. Z kolei zgodnie z modelem prze wodników uwagi (Wolfe, 1994; zob. rozdz. 5), proces przeszukiwania pola wzrokowego, polegający na integracji cech w poszukiwany obiekt, jest uru chamiany wtedy, gdy suma pobudzenia w zakresie kodowanych cech stymulacji przekroczy pewien minimalny próg. Im znaczniejsze przekroczenie progu, tym szybszy proces przeszukiwania pola wzrokowego. Proste, sensoryczne cechy priorytetowe (np. ruch) charakteryzują się dużym ładunkiem aktywacyjnym i wymuszają przetwarzanie na relatywnie wczesnych etapach obróbki bodźca. Jednak proces selekcji na podstawie tych cech bodźców przebiega szybko i intuicyjnie - analizie podlegają jedynie priorytetowe właściwości stymulacji, co prowadzi do zwiększonej liczby błędów. Gdy proces selekcji obejmuje kilka złożonych cech, wymagających głębszej i dłuższej analizy, ale mniej stymulu jących, wówczas przebiega wolniej, ale i bardziej poprawnie. Wtedy bowiem w procesie integracji cech w obiekt uwzględnia się wiele różnych charakterystyk stymulacji w celu przekroczenia sumarycznego progu aktywacji i uruchomienia procesu przeszukiwania. Koszty poznawcze związane z przyspieszeniem przebiegu procesów poznawczych pod presją czasu znajdują empiryczne odzwierciedlenie w zakresie sumarycznej liczby błędów (Dickman, Meyer, 1988; Larson, Saccuzzo, 1986; Szymura, Nęcka, 1998), a także w zakresie błędów ominięcia (Lobaugh, Cole, Rovet, 1998; Zenger, Fahle, 1997). Kosztów polegających na wzroście liczby fałszywych alarmów raczej się nie stwierdza, nawet jeśli analizy dotyczą osób szczególnie impulsywnych (Dickman, Meyer, 1988; Larson, Saccuzzo, 1986; Szymura, Nęcka, 1998). W warunkach szybkiego przetwarzania informacji większość aspektów stymulacji nie jest uwzględniana przy podejmowaniu decyzji selekcyjnej. W rezultacie osoby badane często wybierają strategię zga dywania, podejmując decyzję selekcyjną mimo niepełnych przesłanek. Jak wykazali Chun i Wolfe (1996), takie zgadywanie w ponad 80% przypadków kończy się decyzją negatywną (brak detekcji, możliwy błąd ominięcia), zaś tylko w niecałych 20% - decyzją pozytywną (detekcja, możliwy fałszywy alarm). Efekt przetargu stwierdzili w swoich badaniach nad uwagą selektywną Szymura i Słabosz (2002). Osoby badane „płaciły” za zwiększoną szybkość procesów selekcji informacji wzrostem liczby błędów ominięcia. Wielkość tego efektu ulegała jednak sukcesywnemu zmniejszeniu w każdej kolejnej próbie tego samego testu (trening jednorodny), choć najbardziej istotne różnice stwier dzono na początku nabywania wprawy - między pierwszym a drugim wyko naniem testu. Wyniki okazały się więc zgodne z prawem opadającej krzywej wykładniczej. Co ciekawe, w omawianym badaniu prawo to ujawniło się nie tylko poprzez poprawę w zakresie pojedynczych empirycznych wskaźników wykonania (spadek liczby błędów), ale również poprzez jakościową zmianę sposobu wykonywania czynności selekcji informacji (redukcja efektu przetar
250
Rozdział 6. Kontrola poznawcza
gu). Inaczej mówiąc, automatyzacja czynności poznawczej powoduje ogólną poprawę wskaźników wykonania, a ponadto redukuje koszty związane z koniecznością „płacenia” szybkością za poprawność lub poprawnością za szybkość. Automatyzacja może jednak prowadzić również do konsekwencji negatyw nych. Chodzi szczególnie o trudność w zakresie deproceduralizacji wtórnie automatycznego procesu. Większość modeli nabywania wprawy zakłada trzy stadia automatyzacji: poznawcze, asocjacyjne i autonomiczne (Ackerman, 1988; Anderson, 1983). W stadium poznawczym automatyzacja polega na zrozumie niu i przyswojeniu instrukcji, ogólnym zaznajomieniu się z celem czynności oraz wstępnym sformułowaniu procedury wykonania. W stadium asocjacyjnym, na skutek treningu jednorodnego, następuje proceduralizacja sposobu wykonania czynności (Anderson, 1983). Jest to właściwe stadium nabywania wprawy, dzięki któremu skraca się czas reakcji i zmniejsza liczba błędów. W trzecim stadium, czynność automatyzowana uzyskuje status procesu autonomicznego (Logan, 1988) - raz wyzwolona w jej ramach reakcja przebiega bezwysiłkowo, a zadanie obsługiwane przez tę czynność wykonywane jest tak szybko i poprawnie, jak tylko pozwalają na to możliwości psychomotoryczne organizmu. W stadium autonomicznym możliwe jest wyzwolenie długiej sek wencji zautomatyzowanych czynności za pomocą jednego bodźca lub pojedyn czej intencji. Jednak w niektórych okolicznościach niezbędna jest deproceduralizacja czynności. Konieczność taka zachodzi w warunkach minimalnej choćby zmiany wymagań zadania, co wymusza wprowadzenie zmian w obrębie już zau tomatyzowanej czynności. Mogą się wtedy pojawiać błędy wynikające z „bez refleksyjnego” wykonywania automatycznej procedury (zob. metafora auto matycznego pilota; rozdz. 6.1.1). Przykładem kosztów wynikających z procesu automatyzacji jest zjawisko transferu negatywnego, polegające na tym, iż dobrze wyuczona czynność utrudnia wykonywanie czynności podobnej, ale nie tożsamej z uprzednio wyuczoną. W badaniu Woltza, Bella, Kyllonena i Gardnera (1996) uczestnicy najpierw nabywali wprawę w wykonywaniu zadania polegającego na stosowaniu prostych reguł redukcyjnych w celu zastąpienia liczby trzycyfrowej liczbą jednocyfrową. Osoby, które nabyły umiejętność stoso wania tych reguł w stosunku do jednego zestawu liczb, cechowały się znacznie wydłużonym czasem opracowywania nowych zestawów, jeśli reguły postępo wania zostały minimalnie zmienione. Badani z grupy kontrolnej, którzy nie nabywali wcześniej żadnych reguł, okazali się znacznie szybsi w procesie przetwarzania nowych zestawów liczb. Przy wykorzystaniu nieco trudniejszych reguł redukcyjnych, Woltz, Gardner i Bell (2000) stwierdzili negatywny transfer umiejętności również w zakresie poprawności wykonywania nowej czynności. Pamiętać jednak należy, iż efekty transferu są bardzo zależne od podobieństwa zestawów bodźców i odpowiadających im wymaganych reakcji. Dlatego Logan (1990) nie uzyskał w zadaniu na transfer żadnego istotnego efektu, a Tzelgov (1999) uzyskał nawet efekt transferu pozytywnego. W badaniach nad uwagą selektywną Szymura i Słabosz (2002) stwierdzili występowanie transferu negatywnego w przypadku konieczności dostosowania tego samego typu reakcji do bodźca wyzwalającego uprzednio inny rodzaj reakcji. W wyniku transferu negatywnego, czynność selekcji powracała pod
6.2. Hamowanie jako mechanizm kontrolny
; I j j [ j j [ j Ę i[ \
251
względem parametrów efektywności do poziomu wykonania typowego dla asocjacyjnego stadium nabywania wprawy (Anderson, 1983). Zwiększył się także efekt przetargu pomiędzy szybkością a poprawnością, istotnie uprzednio zredukowany na skutek automatyzacji. Ponadto, na zmianie warunków wy konywania zadania szczególnie tracili ci badani, którzy wykazali się bardziej skuteczną automatyzacją czynności selekcji w początkowych etapach nabywa nia wprawy, charakteryzujących się bardzo szybkim przyrostem efektów. Podsumowując, automatyzacja może być skutecznym narzędziem kontroli poznawczej. Wydaje się, że przeciwstawianie automatyzacji procesom kontroli nie znajduje potwierdzenia w wynikach badań, które sugerują raczej, iż automatyzacja i kontrola są dwoma aspektami procesu nabywania wprawy, procesu, który umożliwia redukcję kosztów poznawczych, związanych z wykonywaniem wielu trudnych zadań jednocześnie lub bezpośrednio po sobie, Pozytywne efekty związane z automatyzacją przeważają nad negatywnymi. Należy jednak pamiętać, iż automatyzacja może czasami uniemożliwiać transfer pozytywny, a nawet powodować transfer negatywny, jeśli trzeba wykonać tę samą czynność w nieco zmienionych warunkach lub nieco zmodyfikowaną czynność w tych samych warunkach.
6.2. Hamowanie jako mechanizm kontrolny 6.2.1. Istota i funkcje hamowania Automatyzacja czynności jest jednym ze sposobów redukcji interferencji zaso bowej (zob. rozdz. 6.1.2). Zjawisko to polega na zakłóceniach przebiegu czyn ności nieautomatycznej przez inne czynności: automatyczne, gdy angażują te same receptory lub efektory, albo nieautomatyczne, jeśli rywalizują o ograni czoną pulę zasobów. Czynności automatyczne w znacznie mniejszym stopniu podlegają zakłóceniom, jednakże mogą stać się źródłem interferencji dla czyn ności nieautomatycznej. Na przykład wtórnie automatyczna czynność czytania może zakłócać niezautomatyzowaną czynność nazywania koloru atramentu, co stanowi istotę efektu Stroopa (1935; zob. paradygmat 6.2). Wprawdzie auto matyzacja jest w stanie nieco osłabić efekt interferencji (Tzelgov, Henik, 1995), ale nigdy nie redukuje go w pełni. System poznawczy musi zatem dysponować bardziej skutecznym narzędziem, zapobiegającym powstawaniu zakłóceń w przebiegu czynności poznawczych lub zmniejszającym skutki pojawienia się takich zakłóceń. Hamowanie jest mechanizmem kontrolnym, wspomagającym proces selek cji informacji. Jego funkcja polega, z jednej strony, na utrudnieniu dostępu do informacji nieistotnych (irrelewantnych) względem aktualnie przetwarzanych danych (Dempster, Brainerd, 1995; Tipper, 1995), a z drugiej strony - na powstrzymywaniu niepożądanej w danym momencie aktywności neuronalnej, mentalnej lub behawioralnej (Neill, Valdes, 1992). Podstawowym zadaniem hamowania jest więc blokowanie jakichkolwiek pobudek, zarówno zewnętrz nych (bodźce nieważne, dystraktory), jak i wewnętrznych (bodźce „symbolicz ne”, impulsy, czynniki afektywne lub motywacyjne), które mogłyby wyzwolić
252
Rozdział 6. Kontrola poznawcza
reakcje konkurencyjne względem aktualnie wykonywanych czynności i przez to wywołać zjawisko interferencji zasobowej (Nigg, 2000). Terminy „hamowanie” i „kontrola interferencji” były zresztą bardzo długo używane zamiennie (Fried man, Miyalce, 2004). Obecnie kontrola interferencji jest traktowana jako jeden z możliwych rodzajów hamowania (Nigg, 2000). Hamowanie jest bowiem raczej konstruktem niejednorodnym. Wskazują na to badania korelacyjne wielkości efektu interferencji w przypadku różnych wersji zadania Stroopa. Shilling, Chetwynd i Rabbitt (2002) poprosili badanych 0 wykonanie czterech wersji tego zadania: werbalnej, figuralnej, numerycznej 1 kierunkowej. Wskaźniki efektu interferencji, odzwierciedlające zgodnie z zało żeniem siłę procesu hamowania, korelowały ze sobą w zakresie od 0,22 do 0,13. Szymura i Patraszewska (w przygotowaniu) przeprowadzili badania, w których również wykorzystano kilka wersji zadania Stroopa. W eksperymen cie pierwszym zastosowano wersję werbalną zwykłą, werbalną emocjonalną oraz werbalną rozproszoną (w tej wersji aspekty konfliktowe bodźca werbalnego są rozdzielone przestrzennie), natomiast w eksperymencie drugim - wersję kierunkową i werbalną zwykłą. Tylko w pierwszym badaniu uzyskano wysoką korelację wielkości efektu interferencji (0,54); dotyczyła ona zresztą tylko zwykłej i emocjonalnej wersji zadania Stroopa. Zależność ta była prawdopo dobnie efektem wspólnego, werbalnego charakteru obu użytych odmian zadania, gdyż w odniesieniu do pozostałych wersji zastosowanego testu ujaw niono zaledwie bardzo słabe, choć pozytywne, związki siły mechanizmu hamo wania (0,22-0,26). Badania z wykorzystaniem różnych testów hamowania przy noszą z reguły jeszcze słabsze wyniki w zakresie korelacji siły tego mechanizmu w poszczególnych zadaniach (Kramer i in., 1994; Friedman, Miyake, 2004). Brak korelacji jest tutaj wynikiem trudnym do wyjaśnienia (Miyake, Emmerson, Friedman, 2000). Może wynikać z różnych przyczyn, niekoniecznie związanych z samą naturą procesu hamowania. Friedman i Miyake (2004) wymieniają trzy możliwe przyczyny. Po pierwsze, nie jest całkiem jasne, czy wykonanie niektórych zadań testowych rzeczywiście wymaga wzbudzenia kontrolnych mechanizmów hamowania; jest to argument o niskiej trafności teoretycznej testów hamowania. Po drugie, wyniki niektórych testów zależą od wprawy osoby badanej w używaniu mechanizmów kontrolnych określonego rodzaju, przez co nie zawsze nadają się do ponownego zastosowania; to argu ment niskiej stabilności pomiarów. Po trzecie, nie stworzono jeszcze zadania, które by dostarczało czystej miary siły hamowania - blokowanie irrelewantnych informacji za każdym razem dotyczy innego zakresu zjawisk przeszkadzających w przetwarzaniu informacji; jest to argument nadmiernej zależności wyników testów hamowania od treści zadania. Jeśli jednak założyć, że brak korelacji nie wynika z niedoskonałości narzędzi pomiarowych, to nasuwa się wniosek o istnieniu całej rodziny mechanizmów hamowania poznawczego, której członkowie nie zawsze są blisko spokrewnieni (Friedman, Miyake, 2004; Nigg, 2000). Przeciwko powyższej tezie świadczą jednak wyniki badań neurofizjolo gicznych (Posner, Raichle, 1994; Rabbit, Lowe, Shilling, 2001), które pozwalają na lokalizację mechanizmu hamowania, niezależnie od jego rodzaju, w obrębie płatów czołowych mózgu.
6.2. Hamowanie jętko mechanizm kontrolny
253
6.2.2. Hamowanie dominującej reakcji Badania tej odmiany hamowania często prowadzono z wykorzystaniem zadania Stroopa (1935; Friedman, Miyake, 2004; Logan, Zbrodoff, 1998; MacLeod, 1991; Shilling, Chetwynd, Rabbitt, 2002; Tzelgov, Henik, 1995). Ich wyniki zostały już wcześniej w większości omówione. W tym miejscu, w kontekście hamowania dominującej reakcji, szerszego omówienia wymagają natomiast wyniki uzyskane w paradygmacie badawczym sygnału stopu (stop-signal; pa radygmat 6.1). Eksperymenty prowadzone w tym paradygmacie dotyczą głównie zatrzymywania reakcji motorycznych. De Jong, Coles i Logan (1995) przeprowadzili badania nad efektywnością hamowania reakcji motorycznej w różnych warunkach zadania. W ich wyniku okazało się, że hamowanie ze wzbudzeniem alternatywnej reakcji motorycznej jest trudniejsze niż proste powstrzymanie dominującej reakcji - badani uzyski wali dłuższe o 46 ms czasy reakcji na sygnał zatrzymania w warunku stop-zmiany niż w warunku stop-ogólny (zob. paradygmat 6.1). Zdaniem De Jonga i współpracowników, w warunku stop-ogólny powstrzymywaniem dominującej reakcji zajmują się jedynie szybkie i peryferyczne (w zakresie systemu kontroli motorycznej) mechanizmy hamowania. Ich zadanie polega na niedopuszczeniu do ekspresji reakcji poprzez odcięcie niezbędnej dla wykonania ruchu energii. Wydłużenie czasu działania mechanizmów hamowania w sytuacji zmiany sposobu reakcji motorycznej (np. z ręcznej na nożną) jest natomiast związane z funkcjonowaniem centralnych mechanizmów hamowania, gdyż odcięcie energii koniecznej dla wykonania ruchu nie jest w tym warunku efektywnym sposobem sprawowania kontroli (ruch innym efektorem musi zostać przecież wykonany). W warunku stop-zmiany dłuższe czasy reakcji związane są więc z kosztami przerzutności w zakresie sposobu reakcji, jakie ponosi centralny system hamowania przy udanej próbie kontroli sytuacji. Najtrudniejszym zadaniem dla badanych okazało się jednak hamowanie selektywne, dotyczące powstrzymywania tylko jednej z dwóch możliwych do wzbudzenia reakcji motorycznych (reakcji jednej z dwóch rąk). Na selektywne powstrzymanie się od reakcji (warunek stop-selektywny; zob. paradygmat 6.1) badani potrzebowali o 99 ms więcej niż na reakcję w warunku stop-ogólny. Wykonanie instrukcji zatrzymania w warunku stop-selektywny zabierało jednak również więcej czasu (o 53 ms) niż w warunku stop-zmiana. Co więcej, selek tywne powstrzymanie się od reakcji dominującą ręką było o 44 ms szybsze niż wykonanie tego samego zadania z użyciem ręki niedominującej. Zdaniem De Jonga i współpracowników wyniki te odzwierciedlają kosztowną współpracę peryferycznych i centralnych mechanizmów hamowania dominującej w danym momencie reakcji. W warunku stop-selektywny należy bowiem zablokować energię potrzebną do wykonania ruchu (peryferyczne hamowanie reakcji), ale nie każdego ruchu, a jedynie takiego, który zostanie centralnie wskazany do zablokowania (centralne hamowanie reakcji). Centralny system hamowania reakcji odpowiadałby więc za selekcję w zakresie tego, co (rodzaj efektora) i w jaki sposób (zmiana efektora, selektywny wybór efektora spośród możli wych) jest hamowane. Zadaniem peryferycznego systemu hamowania dominu jącej reakcji byłoby blokowanie energii koniecznej do wykonania reakcji. System centralny hamowania reakcji można więc określić jako selektywny,
254
Rozdział 6. K ontrola poznaw cza
podczas gdy peryferyczny - jako nieselektywny (De Jong, Coles, Logan, 1995; Horstmann, 2003). W badaniu drugim De Jong i współpracownicy zastosowali tylko warunek stop-selektywny. W połowie prób dokonali jednak degradacji bodźca wzbu dzającego hamowanie czynności motorycznej poprzez jego maskowanie. Manipulacja rozróźnialnością bodźca okazała się efektywna - wydłużyła ona (o 64 ms) zarówno czas reakcji na bodziec w zakresie wykonywanej czynności, gdy nie była ona powstrzymywana, jak i czas reakcji na sygnał do zatrzymania (o 50 ms). W badaniu tym stwierdzono jednak istotną interakcję obecności sygnału do zatrzymania i trudności w identyfikacji bodźca wzbudzającego za trzymaną czynność. Przetwarzanie sygnału do zatrzymania interferowało z wy konywaniem zatrzymywanej czynności nawet wtedy, gdy sygnał do zatrzymania nie był prezentowany, i zwłaszcza wtedy, gdy rozróżnialność bodźców wzbu dzających była niska. Oznacza to, że czynność zatrzymywana i operacja zatrzy mywania zakłócają się wzajemnie. Należy jednak pamiętać, że z reguły inter ferencja tego rodzaju nie jest zbyt duża. Logan i Burkell (1986) porównali wielkość możliwej interferencji pomiędzy dwoma czynnościami w paradygmacie zadań jednoczesnych i w paradygmacie stop-sygnał. Wykazali oni, że inter ferencja w paradygmacie hamowania reakcji jest znacznie mniejsza i dotyczy jedynie selekcji właściwej reakcji (zob. też Logan, 1982, 1988). Badania nad wielkością efektu interferencji w paradygmacie sygnału stopu podjął również Horstmann (2003). Interesował go problem współzależności interwalu czasu potrzebnego na wykonanie zatrzymywanej czynności i interwalu koniecznego do jej zastopowania. Wykonywaną czynnością motoryczną było pisanie na maszynie. Czynność tę wybrano ze względu na to, że będąc wtórnie zautomatyzowaną podlega ona stosunkowo łatwej kontroli (Logan, 1982) i może być równocześnie realizowana z wieloma innymi czynnościami poznawczymi, nie wywołując przy tym nazbyt dużego efektu interferencji (Pashler, 1994). Na ekranie monitora pojawiały się tylko dwie litery, które sygnalizowały albo możliwość wykonywania czynności, czyli naciśnięcia klawisza (T; tap), albo konieczność zatrzymania czynności, czyli powstrzymania się od uderzania w klawisz (H; halt). Testowano zachowanie badanych, poddając ich różnym próbom: startu - gdy litera T pokazywała się po jednej lub po kilku literach H; ciągłego wykonania - bez litery H; ciągłego powstrzymywania się od wykonania - bez litery T; oraz hamowania - gdy litera H pokazywała się po jednej lub po kilku literach T. Manipulowano odstępem (SOA) pojawienia się liter na ekranie. W wyniku testu Horstmann wykazał, że reakcja na drugi sygnał z każdej pary jest tym szybsza, im dłuższy jest interwal SOA (200 ms). Jednakże reakcja na sygnał „stop H ” po sygnale do wykonywania czynności T, czyli zatrzymanie wykonywania czynności, okazała się tym bardziej efektywna (o 13% więcej zatrzymań), ale jednocześnie dłużej (89 ms) trwająca, im krótsze było SOA (100 ms). Wynik ten pozostaje jedynie w częściowej zgodzie z teorią rywalizujących egzemplarzy Logana (1988, 2002), który stwierdził, że hamowanie reakcji może być skuteczne, jeśli pojawi się ono zanim reakcja w zakresie zatrzymywanej czynności zostanie uruchomiona, a więc przy krótkim odstępie między bodźcem wzbudzającym czynności a sygnałem stopu. Jednakże dokonana przez Horstmanna manipulacja eksperymentalna w zakresie odstępu czasu między poja
6.2. H am ow anie jako m echanizm kontrolny
255
wieniem się sygnałów do kontynuowania i zatrzymania czynności ujawniła, że szybkość przebiegu procesu hamowania jest zależna od momentu jego rozpo częcia. Oznacza to wystąpienie współzależności interwału czasu potrzebnego na wykonanie zatrzymywanej czynności i interwału koniecznego do jej zasto powania. Czynność hamowania reakcji nie różni się więc od innych, aktywnych czynności w swej zależności od psychologicznego okresu refrakcji (PRP; psychological refractory period; Pashler, 1994). Efekt PRP polega na tym, że jeśli bodziec S2 pojawi się przed wykonaniem reakcji na bodziec S1; reakcja na bodziec S2 będzie nienaturalnie wydłużona. Druga reakcja jak gdyby czeka, aż system „dojdzie do siebie” po wykonaniu pierwszej. Horstmann w kolejnych eksperymentach wykazał również szereg bardziej złożonych związków procesu hamowania reakcji i kolejności dokonywanej zmiany w czasie ciągłego wyko nywania czynności. Kolejne wykonania i zatrzymania okazały się w jeszcze większym stopniu zależne od SOA i porządku poprzedzających je czynności. Przeprowadzone badania nasuwają wniosek, że hamowanie dominującej reakcji jest raczej procesem wysiłkowym i intencjonalnym, o czym świadczą zależności tego rodzaju hamowania od manipulacji zarówno w zakresie rozróżnialności sygnałów do wykonania (De Jong), jak i odstępu czasu pomiędzy sygnałami do rozpoczęcia i zatrzymania czynności (Horstmann). Jako proces wysiłkowy i intencjonalny, hamowanie dominującej reakcji wykazuje interfe rencję z czynnością aktualnie wykonywaną. Interferencja ta jest jednak słabsza niż wzajemne zakłócanie się dwóch czynności jednoczesnych (Logan).
6.2.3. Odporność na dystrakcję Badania w paradygmacie podążania (zob. rozdz. 5.2.1) wykazały, że informacje nieistotne są często przetwarzane aż do poziomu identyfikacji ich znaczenia lub nawet do poziomu selekcji reakcji (zob. rozdz. 5.3). Dystrakcja nie jest więc w całości odrzucana przez system poznawczy, mimo że stopień odporności na zakłócenia na sensorycznym poziomie przetwarzania informacji jest ważnym czynnikiem determinującym efektywność głębokiego przetwarzania wyselek cjonowanych treści (Johnston, Dark, 1982) i, w konsekwencji, ich zapamięty wania (Eriksen, Eriksen, Hoffman, 1986). Francolini i Egeth (1980) twierdzą, że w pewnych warunkach proces odrzucania dystrakcji może być całkowicie skuteczny. Przywołują oni argumenty empiryczne udanych prób redukcji efektu Stroopa (Kahneman, Chajczyk, 1983) oraz efektu flankerów (Eriksen, Eriksen, 1974) w wyniku przestrzennej separacji konfliktowych aspektów bodźca. Bodźce zakłócające przetwarzane poza ogniskiem uwagi (często bez udzia łu świadomości i intencji; Johnston, Dark, 1986) są w stanie wzbudzić reakcję konkurencyjną względem wykonywanej czynności (Eriksen, Eriksen, 1974; Eriksen, Schultz, 1979; Eriksen, Eriksen, Hoffman, 1986). W Teście flankerów (Eriksen, Eriksen, 1974; Broadbent, Broadbent, Jones, 1989; Smith, 1991) ba dani reagują na literę pojawiającą się w centrum ekranu. Litera ta jest otoczona przez dwa bodźce zakłócające (flankery), którymi są inne litery pojawiające się po obu stronach sygnału w jednym rzędzie. Podstawowa wersja testu uwzględ nia dwie manipulacje eksperymentalne. Po pierwsze, flankery mogą być tożsame z sygnałem lub też mogą być zupełnie innymi literami. Po drugie, zadania tes-
256
Rozdział 6. Kontrola poznaw cza
550
500
co
E
450
400 0,06"
0,5"
1"
odległość kątowa sygnału od dystraktora Reakcje na litery: H i K - lewy kursor, S i C - prawy kursor Warunek 1 - dystraktor taki sam jak sygnał, np.: H H H H H H H Warunek 2 - dystraktor zgodny pod względem klucza reakcji, np.: K K K H K K K Warunek 3 - dystraktor niezgodny pod względem klucza reakcji, np.: S S S H S S S Warunek 4 - dystraktor podobny, np.: N W Z H N W Z Warunek 5 - dystraktor niepodobny, np.: Q J Q H Q J Q
Ryc. 6.6. Efekt flankerów stwierdzony w eksperymencie Eriksena i Eriksen (1974).
towe różnią się w zakresie przestrzennej lokalizacji bodźców zakłócających (bliżej lub dalej względem sygnału). Eriksen i Eriksen stwierdzili (ryc. 6.6), że czas reakcji na sygnał znacznie wydłuża się, gdy pojawiają się flankery, w po równaniu do sytuacji, gdy ich nie ma lub są tożsame z sygnałem. Co więcej, czas ten wydłuża się tym bardziej, im bardziej są do siebie podobne sygnały i dys-
6.2. H am ow anie jako m echanizm kontrolny l
257
------------------------------------------------------------------------------------------------------------------------------------------------
I traktory (zob. też zależność procesu selekcji od podobieństwa sygnału i dystrakI tora; Duncan, Humphreys, 1989) oraz im mniejsza wzajemna odległość bodźców i dystraktorów (zob. też metafora reflektora; LaBerge, 1995). Efekt flankerów można jednak zredukować dokonując oddzielenia (przestrzenna se paracja) liter w rzędzie. Broadbent, Broadbent i Jones (1989) doszli do wniosku, I że wielkość wpływu zakłóceń na proces selekcji w Teście flankerów, a tym saI mym odporność na dystrakcję, oddaje wskaźnik ERIK, skalkulowany jako I różnica policzona dla warunków separacji i współwystępowania dystraktorów i oraz sygnału pomiędzy różnicami w czasach detekcji sygnału dla flankerów I niespójnych i spójnych z sygnałem. Broadbent, Broadbent i Jones (1989) oraz Smith (1991) niezależnie potwierdzili efekt flankerów oraz prawa, którym i podlega. I Zdaniem Eriksena i Eriksen efekt flankerów wynika z konieczności zaha[ mowania potencjalnej reakcji na bodziec zakłócający. Hamowanie to jest koszI towne, bowiem powoduje wydłużenie czasu reakcji w warunkach współwysl tępujących, dystrakcyjnych flankerów. W zgodzie z tą interpretacją pozostają í wyniki badań Eriksena, Colesa, Morrisa i O’Hary (1985). W eksperymencie tym l wykazano, że prezentowanie w polu wzrokowym bodźca zakłócającego, mogące[ go stać się alternatywnym sygnałem, prowadzi do wystąpienia reakcji mięśniowej j (EMG), pomimo iż badani zdają sobie sprawę z tego, że bodziec ten mają ! ignorować. Należy zwrócić uwagę, że zgodnie z interpretacją Eriksena i jego i współpracowników wykonanie Testu flankerów bardziej związane jest z hamo; waniem konkurencyjnej reakcji (na dystraktor), niż z odpornością na dystrakcję l traktowaną jako powstrzymywanie się od przetwarzania bodźców zakłócających. ; Odmienne stanowisko zaprezentowali Friedman i Miyake (2004). Z kolei Karen, O'Hara i Skelton (1977) wykorzystali w swoim badaniu zadanie Posnera i Mitchella (1967). Polecili osobom badanym podjęcie decyzji, I czy para prezentowanych im liter spełnia narzucone przez instrukcję kryterium selekcyjne. Uczestnicy eksperymentu mieli do dyspozycji trzy kryteria: identyi czności fizycznej identyczności (np. „AA”), identyczności nominalnej (np. r „Aa”) oraz opartej o regułę (np. „Ae”). Osoby badane wykonywały zadanie ; w obecności dystraktorów, którymi były inne litery. Opierając się na uzyskanych ; wynikach Karen i współpracownicy wykazali, że przetwarzanie bodźców [ zakłócających może być powstrzymane bardzo wcześnie, na poziomie ich I rozpoznania, lub też bardzo późno, na poziomie przetwarzania ich znaczenia. \ W pierwszym przypadku, dystraktory powodowały interferencję tylko w zada ją niach, w których zastosowano kryterium fizycznej identyczności, natomiast były skutecznie odrzucane w warunkach selekcji wymagających uwzględnienia \ znaczenia bodźców. Jednak, gdy dystraktory były przetwarzane ze względu na [ ich znaczenie, interferencję z ich strony stwierdzono w zakresie wszystkich i zadań, niezależnie od kryterium selekcji. | Wykorzystując dynamiczną wersję zadania Posnera i Mitchella (test selek\ tywnej i podzielnej uwagi DIVA; zob. Nęcka, 1994a), Szymura (1999) pokazał, \ że sposób przeszukiwania pola percepcyjnego jest zależny od odporności na j. dystrakcję. Niezależnie od rodzaju kryterium selekcji (fizyczne vs. nominalne), J jeśli tylko badani radzili sobie z odrzucaniem bodźców zakłócających (brak L różnic w efektywności procesu selekcji ze względu na obecność dystrakcji), ; proces przeszukiwania pola wzrokowego był szybki, równoległy i niezależny od
258
Rozdział 6. K ontrola poznaw cza
liczby elementów w polu. Gdy jednak hamowanie dystrakcji było mniej efek tywne (wzrost czasu reakcji w warunkach z dystrakcją w porównaniu do jej braku), proces przeszukiwania pola okazywał się wolny, szeregowy i zależny od liczby prezentowanych bodźców. Prowadzący wcześniej swoje badania Eriksen, Eriksen i Hoffman (1986) wykazali, że zakłócanie poprzez prezentację dystraktorów etapu kodowania bodźców w celu ich przechowania w pamięci świeżej nie zmienia szeregowego charakteru procesu przeszukiwania pamięci (Sternberg, 1966), a jedynie wydłuża czas potrzebny na przeszukanie każdego zestawu bodźców w celu udzielenia odpowiedzi na pytanie dotyczące obecności sygnału w zapamiętywanym zestawie. Efekt tłumienia dystrakcji (distractor-supression effect) badał z kolei Neill (1977, 1982). W eksperymentach zastosował zadanie Stroopa (zob. paradygmat 6.2), układając w specyficzny sposób porządek bodźców na liście niespójnej. N + l bodziec tej listy był napisany kolorem atramentu, który był tożsamy ze znaczeniem N-tego bodźca tej listy. Na przykład, jeśli na N-tej pozycji znajdował się wyraz „czerwony” napisany na zielono, to kolejny, N + l wyraz był pisany czerwonym atramentem. Neill wykrył, że reakcja na uprzednio tłumiony aspekt bodźca konfliktowego jest wolniejsza niż wówczas, gdy aspekt ten nie był uprzednio odrzucany. Podobne wyniki uzyskali Allport, Tipper i Chmiel (1985) oraz Tipper i Cranston (1985), wykorzystując zadanie na przeszukiwanie pola percepcyjnego, a także Allport, Tipper i Chmiel (1985) oraz Tipper (1985) w zadaniu na odróżnianie różnokolorowych kształtów figur. W różnych wersjach tych testów bodźce ignorowane w poprzednich próbach stawały się sygnałami w próbach kolejnych, wywołując spowolnienie mechanizmów selekcji informacji. Prowadząc dalsze badania nad efektem tłumienia dystrakcji Neill i Westberry (1987) odkryli, że efekt ten jest zależny od strategii rozwiązania przetargu między szybkością a poprawnością (zob. rozdz. 6.1.3). Gdy badani, wykonując zadanie Stroopa, poświęcali poprawność na rzecz szybkości, nie stwierdzono efektu tłumienia dystrakcji, gdy zaś poświęcali szybkość na rzecz poprawności efekt ten wystąpił z jeszcze większą siłą. Manipulując odstępem między poszczególnymi pozycjami testu, Neill i Westberry wykazali także, że tłumienie dystrakcji jest krótkotrwałe - proces ten jest aktywny przez najwyżej 1000 ms. Paradygmat badawczy, wykorzystany przez Neilla, został nazwany poprze dzaniem negatywnym (paradygmat 6.3). N-ty bodziec nazwano prymą, a N + l próbą testową. Własną wersję zadania w tym paradygmacie stworzył także Tipper (1985; Tipper, Driver, 1988; Driver, Tipper, 1989). W jego ekspery mentach zarówno pryma, jak i bodziec testowy tworzyły złożone układy symboli (liter i cyfr). Tipperowi udało się wykazać, że w takich warunkach efekt poprze dzania negatywnego może trwać nieco dłużej (1500 ms; w badaniach Kossow skiej, 2005 - nawet 2000 ms). May, Kane i Hasher (1995), powołując się na wyniki badań Tippera, Weavera, Camerona, Brehaut i Bastedo (1991), twierdzą, że efekt ten w specyficznych warunkach może trwać nawet do 6000 ms (w cytowanych badaniach Tippera i współpracowników poprzedzanie negatyw ne dotyczyło nazywania narysowanych obiektów). Przedstawione tu wyniki badań dowodzą, że odporność na dystrakcję jest ważnym mechanizmem kontrolnym, choć pokazują również, że możliwości w zakresie tłumienia zakłóceń ze strony systemu poznawczego są mocno ogra-
6.2. H am ow anie jako m echanizm kontrolny
i
S I i r i [
259
niczone (Johnston i Dark). Dystraktory są często przetwarzane aż do momentu selekcji i wzbudzenia konkurencyjnej reakcji, wywołując w ten sposób interferencję procesów (Eriksen i Eriksen). Kontrola tej interferencji prowadzi z jednej strony do pozytywnych konsekwencji przetwarzania, jak np. przyspieszenie przeszukiwania pamięci świeżej (Eriksen, Eriksen i Hoffman) czy też zmiana charakteru przeszukiwania pola percepcyjnego z szeregowego na równoległy (Szymura). Z drugiej jednak strony, wywołuje ona zjawisko tłumienia dystrakcji (Neill), które jest szczególnie niekorzystne wtedy, gdy dystraktory stają się w kolejnych zadaniach sygnałami, na które trzeba zwrócić uwagę (poprzedzanie negatywne; Neill, Tipper). : Paradygmat 6.3
) Poprzedzanie negatywne
; | Poprzedzanie negatywne polega na prezentowaniu bodźca poprzedzającego (pry! my), który utrudnia przetwarzanie bodźca właściwego. Zwykle obserwuje się wy| j dłużenie czasu potrzebnego na przetworzenie bodźca właściwego, poprzedzonego i I odpowiednio dobraną prymą, w porównaniu do bodźca niczym nie poprzedzonego | lub poprzedzonego prymą neutralną. | Tipper (1985; Tipper, Dreiver, 1988; Dreiver, Tipper, 1989) był zdania, że dla | efektywnej selekcji informacji konieczne jest skuteczne hamowanie dwóch typów ! f dystraktorów: bodźców specyficznie zakłócających, wywołujących interferencję, ; | i bodźców ogólnie zakłócających, nie powodujących interferencji. Paradygmat po1 przedzania negatywnego miał być tym, który pozwoli na zbadanie procesu tłu\ mienia dystrakcji specyficznej (Neill, 1977). Zadaniem osób badanych było zli- | czanie czerwonych bodźców, rozrzuconych wśród różnych liter i cyfr prezentowa| nych w tym samym czasie przez bardzo krótki okres (200 ms) (Tipper, Dreiver, f 1988; Dreiver, Tipper, 1989). Wyróżniono dwa rodzaje przedstawień, które nazwano I testowym {probe) i poprzedzającym (prime). Przedstawienia testowe zawierały tylko i czarne i czerwone litery, natomiast przedstawienia poprzedzające zawierały żarów| no czarne litery lub cyfry, jak i czerwone litery. Ze względu na bodziec poprzeI dzający (prymę) wyróżniono dwa typy zadań: (1) zadanie interferencyjne, w którym ; ij w kolorze czarnym w ramach prymy prezentowano cyfrę inną niż oczekiwany wynik | zliczania (liczba czerwonych bodźców) oraz (2) zadanie neutralne, w którym ■ 1 w kolorze czarnym prezentowano litery pozostające bez żadnego związku z ocze\ I kiwanym wynikiem zliczania. Ze względu na możliwe sposoby połączenia przed5 I stawienia poprzedzającego i testowego wyróżniono trzy warunki eksperymentalne: : (1) neutralno-kontrolny, w którym przedstawienia testowego i poprzedzania neutrali l nego nie łączyła żadna relacja; (2) interferencyjno-odmienny, w którym po prymie l interferencyjnej prezentowano przedstawienie testowe, zawierające inną liczbę j czerwonych liter niż ignorowana w prymie czarna cyfra oraz (3) interferencyjnoi -jednakowy, w którym po prymie interferencyjnej prezentowano przedstawienie, i zawierające liczbę liter zgodną z ignorowaną w prymie czarną cyfrą. Trzeci warunek nazywano warunkiem poprzedzania negatywnego. Uprzednio ; ignorowany bodziec (czarna cyfra) podpowiada oczekiwaną reakcję (liczbę i czerwonych cyfr). Ponieważ w przedstawieniu poprzedzającym był on odrzucany, ( obserwuje się wydłużenie czasu reakcji w przedstawieniu testowym. Tipper i Driver
| f
i
; ( f
\
260
Rozdział 6. Kontrola poznaw cza
wykazali zarówno efekt poprzedzania negatywnego (warunek 3), jak i efekt po przedzania bodźcem zakłócającym, wywołującym interferencję (warunek 2). Ich zdaniem świadczy to o tym, iż w procesie selekcji wszystkie bodźce zakłócające, niezależnie od tego, czy wywołują interferencję czy też nie, są hamowane i w miarę możliwości odrzucane. Paradygmat poprzedzania negatywnego obejmuje liczne i różnorodne zadania poznawcze. Główne manipulacje dotyczą następujących warunków eksperymen talnych. (1) Odległość (w czasie) prymy i celu Neill i Westburry (1987) wykazali, że efekt poprzedzania negatywnego nie ujawnia się przy bardzo krótkich (do 50 ms) interwałach czasowych między po jawieniem się prymy i bodźca docelowego. Zauważyli także, że wielkość tego efektu obniża się zdecydowanie, gdy odstęp czasu między prezentacją prymy i bodźca docelowego jest większy niż 500 ms. Z kolei Tipper i współpracownicy (1991) potwierdzili możliwość utrzymywania się efektu poprzedzania negatywnego przez dłuższy okres (nawet 6600 ms). Co więcej, w przypadku dłuższych interwa łów czasowych wielkość efektu inhibicji ponownie rosła, będąc dwukrotnie większa przy odstępie 6600 ms niż przy interwale 3100 ms (22 ms. versus 10 ms). Brak efektu poprzedzania negatywnego w fazie przeduwagowej selekcji informacji i jego konsekwentne występowanie przez całą fazę uwagową świadczy na korzyść tezy, iż hamowanie jest mechanizmem kontrolnym, występującym tylko wtedy, gdy kon trola uwagowa może być efektywnie sprawowana. (2) Rodzaj bodźców, rodzaj zadań, rodzaj reakcji W badaniach nad efektem poprzedzania negatywnego rodzaj bodźców (np. litery versus obrazki), rodzaj zadania (np. nazywanie kolorów versus identy fikacja kształtów) oraz rodzaj reakcji (np. werbalna versus motoryczna) wydają się nie mieć większego znaczenia dla istotności uzyskiwanego efektu (May, Kane, Hasher, 1995). Wprawdzie wielkość efektu interferencji zależy zarówno od rodzaju reakcji Qest np. o 10 ms większa przy rekcji werbalnej niż motorycznej; Tipper, MacQueen, Brehaut, 1988), jak i od rodzaju bodźca (o 26 ms większa dla cyfr niż liter; Driver, Tipper, 1989), jednak manipulacje te nie mają wpływu na wielkość efektu negatywnego poprzedzania (Tipper i in., 1988; Tipper, 1989). Zdaniem May i jej współpracowników (1995) oznacza to, że mechanizm hamowania, ujaw niający się w zjawisku poprzedzania negatywnego, ma charakter centralny i jest związany z blokowaniem semantycznych, głębokich reprezentacji dystraktorów, niezależnie od ich powierzchniowego odzwierciedlenia w systemie poznawczym (zob. rozdz. 2). (3) Kontekst zewnętrzny poprzedzania negatywnego Omawiany efekt występuje tylko w kontekście konieczności dokonywania procesu selekcji w obrębie pary bodźców. Lowe (1979) wykazał skuteczną redukcję hamowania w warunku reakcji na pojedynczy bodziec, gdy dystraktor nie był obecny w prezentacji testowej. Udało mu się także wykazać, iż na wielkość efektu poprzedzania negatywnego mają wpływ oczekiwania osób badanych odnośnie do trudności zadania do wykonania. Jeśli próba testowa wykorzystuje mechanizmy selekcji, to przeświadczenie respondentów o jej trudności rośnie i - tym samym wzrasta wielkość efektu hamowania, co można wyjaśniać większym zaangażowa niem mechanizmów kontrolnych w przetwarzanie informacji. Z kolei Neill I Westberry
6.2. H am ow anie jako m echanizm kontrolny
I j |
261
(1987) pokazali, że w celu zwiększenia efektu poprzedzania negatywnego wystarczy wzbudzić oczekiwania osób badanych odnośnie do wysokiego poziomu wymagań, niezależne od rzeczywistej trudności zadania. Efekt ten może więc pojawić się również w prostym zadaniu na nazwanie koloru atramentu, wykonywanym bez konieczności selekcji, jeśli tylko badani nabędą przeświadczenie o dużej trudności takiego testu. Zdaniem May i jej współpracowników (1995) : oznacza to, że mechanizm poprzedzania negatywnego jest adaptacyjny i elastyczny - możliwe jest bowiem dostosowanie jego funkcjonowania (aż do możliwości całkowitej redukcji) do zmiennych warunków trudności zadania.
i i
i i ® ; f
i£ j; i;
| 6.2.4. Odporność na interferencję proaktywną E'
j:
i Pamiętanie czegoś może powodować zapominanie innych informacji. Odpamię» tywanie informacji z konkretnej kategorii, np. numeru telefonu do przyjaciela, może spowodować brak możliwości przypomnienia innej informacji z tej samej kategorii, np. numeru telefonu członka rodziny, choć nie ma wpływu na odpamiętywanie informacji z innych kategorii. Zagadnieniem odporności na inter ferencję pamięciową zajęli się Anderson, Bjork i Bjork (1994). Zaobserwowany przez siebie efekt nazwali zapominaniem z powodu przywoływania (retrieval-induced forgetting). W badaniach nad tym efektem uczestnicy eksperymentu z reguły zapamiętują listę par egzemplarzy, należących w każdej parze do tej samej kategorii. Następnie ćwiczą się (powtarzając egzemplarze) w odpamiętywaniu tylko niektórych egzemplarzy z wybranych kategorii. Wreszcie ich zadaniem jest przywołanie wszystkich wyuczonych w pierwszym etapie egzem plarzy, przy czym w trakcie przywoływania dysponują oni nazwą kategorii jako wskazówką pamięciową. W wyniku zastosowania takiej właśnie procedury z reguły stwierdza się, że: (1) odpamiętywane wyrazy należą głównie do ćwiczonych kategorii (co oczywiste) oraz (2) przywołanie niepowtarzanych egzemplarzy z ćwiczonych kategorii jest znacznie słabsze niż egzemplarzy z niećwiczonych kategorii (co intrygujące). Przeprowadzając tego typu eksperymenty Perfect, Moulin, Conway i Perry (2002) pokazali dodatkowo, że proces rozpoznawania niepowtarzanych egzemplarzy z ćwiczonych kategorii jest znacznie wolniejszy niż proces roz poznawania pozostałych rodzajów reprezentacji pamięciowych tworzonych w trakcie badania. W innych badaniach (Anderson, Spellman, 1995) okazało się, że efekt zapominania z powodu przywoływania jest niezależny od rodzaju wskazówki pamięciowej. Anderson i Spellman umieścili na listach par słów egzemplarze należące do różnych kategorii, a następnie próbowali wydobyć od badanych informacje niepowtarzane, stosując różne wskazówki pamięciowe. Efekt był zawsze ten sam - liczba niepowtarzanych przedstawicieli ćwiczonych kategorii była istotnie niższa niż liczba innych reprezentacji pamięciowych. Wyniki badań nad zapominaniem z powodu przywoływania uzupełnili Veiling i van Knippenberg (2004), dowodząc, że czas rozpoznawania niepowtarzanych egzemplarzy ćwiczonych kategorii jest wolny i niezależny od użytej wskazówki. Wszystkie te wyniki sugerują, że efekt zapominania z powodu przywoływania
262
Rozdział 6. Kontrola poznawcza
jest niezależny od rodzaju przywoływania (odpamiętywanie versus rozpozna wanie) oraz rodzaju wskazówki w odpamiętywaniu. Analizując wyniki badań nad zapominaniem z powodu przywoływania Perfect, Moulin, Conway i Perry (2002) zdefiniowali proces hamowania pamię ciowego, jako redukcję w zakresie poziomu aktywacji reprezentacji pamięciowej. W trakcie ćwiczenia poprzez powtarzanie poszczególnych egzemplarzy danej kategorii dochodzi bowiem do równoległego procesu relatywnego wzmacniania poziomu aktywacji ćwiczonych egzemplarzy i redukcji poziomu aktywacji egzemplarzy niećwiczonych. W konsekwencji odpamiętywane są przede wszyst kim egzemplarze ćwiczone. W przypadku niećwiczonych kategorii, nie tworzy się relatywna nierównowaga w poziomie aktywacji reprezentacji pamięciowych wszystkie uzyskują podobne wzmocnienie w procesie uczenia się, wszystkie mogą być też odpamiętane ze stosunkowo zbliżonym prawdopodobieństwem. Jak słusznie zauważają Veiling i van Knippenberg (2004), próba definicji hamowania pamięciowego, dokonana przez Perry’ego i współpracowników, bar dziej jednak przypomina proces biernego zapominania nieaktywnych reprezenta cji pamięciowych niż proces czynnego hamowania reprezentacji mniej aktyw nych. Chcąc wykazać, iż zapominanie przez przywoływanie ma jednak cechy aktywnego procesu hamującego, Veiling i van Knippenberg w eksperymencie drugim zmienili zadanie wykorzystywane w celu uzyskania tego efektu. Zamiast testu pamięci jawnej użyli zadania na pamięć ukrytą w paradygmacie podejmo wania decyzji leksykalnych (LDT; zob. rozdz. 5.3). Zadaniem osób badanych było podjęcie decyzji, czy słowo w ich ojczystym języku, prezentowane na ekranie, jest napisane poprawnie czy też błędnie. Okazało się, że średni czas decyzji w przy padku egzemplarzy kategorii niećwiczonych był taki sam jak dla powtarzanych egzemplarzy kategorii ćwiczonych (542 ms), natomiast średni czas decyzji w przy padku niepowtarzanych egzemplarzy kategorii ćwiczonych był istotnie dłuższy (o 32 ms). Veiling i van Knippenberg w dyskusji wyników swojego badania wyraźnie podkreślają, że - ze względu na wykorzystany test LDT - uzyskanych przez nich rezultatów nie można interpretować w kategoriach biernego za pominania, ale należy je rozumieć jako przykład aktywnego blokowania dostępu do niektórych egzemplarzy. Sugerują także, iż zjawisko zapominania przez przy woływanie powinno zmienić nazwę na efekt hamowania przez przywoływanie.
6.2 .5 . Czy ham owanie jest konstruktem jednorodnym? Nigg (2000) zaproponował szczegółową klasyfikację rodzajów hamowania, uwzględniającą sześć podstawowych mechanizmów tego typu. Wśród wyróż nionych typów znalazły się: (1) kontrola interferencji, czyli niedopuszczanie do interferencji konfliktowych aspektów bodźców lub reakcji albo osłabianie skutków takiej interferencji; (2) hamowanie percepcyjne, czyli tłumienie od ruchu sakkadowego; (3) hamowanie poznawcze, czyli tłumienie irrelewantnych reprezentacji umysłowych; (4) hamowanie behawioralne, czyli tłumienie zbędnych reakcji; (5) hamowanie powrotu, czyli niedopuszczanie do powrotu uwagi do miejsca lokalizacji poprzedniego bodźca, oraz (6) hamowanie uwagowe odruchu orientacyjnego, polegające na niedopuszczeniu do przekierowania uwagi do miejsca lokalizacji nowego bodźca. W swojej taksonomii Nigg
6.2. Hamowanie jako mechanizm kontrolny
!
j | I ; I i
; ;
|
!
263
uwzględnił trzy wymiary: (1) automatyczność procesu (wysiłkowy lub bezwysiłkowy), (2) poziom przetwarzania informacji (hamowanie poznawcze lub behawioralne) oraz (3) aktywność procesu (aktywne hamowanie lub bierna od porność na zakłócenie). W ten sposób kontrola interferencji i hamowanie percepcyjne zostały zaliczone do biernych i wysiłkowych procesów poznawczych (na płytkim poziomie przetwarzania), hamowanie poznawcze - do aktywnych i wysiłkowych procesów poznawczych (na głębokim poziomie przetwarzania), hamowanie behawioralne - do aktywnych i wysiłkowych procesów behawioral nych, a hamowanie powrotu i hamowanie odruchu orientacyjnego - do aktyw nych i bezwysiłkowych procesów poznawczych (na płytkim poziomie przetwa rzania). Dokładne omówienie klasyfikacji Nigga wraz z przykładami wskaźni ków pomiarowych oraz korelatów neuronalnych poszczególnych rodzajów hamowania znaleźć można w książce Małgorzaty Kossowskiej (2005). Częściowo odmienną taksonomię rodzajów hamowania zaproponowali Friedman i Miyake (2004). Według tych autorów warto wyróżniać tylko trzy rodzaje hamowania. Pierwszym jest hamowanie dominującej reakcji {prepotent response inhibition). Testem pozwalającym mierzyć skuteczność tego rodzaju hamowania jest - zdaniem Friedmana i Miyake - zadanie Stroopa (1935). W teście tym badani muszą powstrzymać narzucającą się czynność czytania słowa, aby móc nazwać kolor atramentu, którym słowo to jest napisane. Ten rodzaj hamowania łączy w sobie cechy hamowania behawioralnego i percepcyjnego - jest ono aktywne, wysiłkowe, intencjonalne i może przebiegać na różnych poziomach selekcji. Drugi rodzaj hamowania to odporność na dystrakcję (resistance to distractor interference). Dzięki temu procesowi kontrolnemu możliwe jest odrzucenie informacji irrelewantnych, czyli nieistotnych z punktu widzenia aktualnie przetwarzanych danych. Ten typ hamowania bliski jest więc w kla syfikacji Nigga kontroli interferencji (jeśli wykluczy się z niej interferencję reakcji, uwzględnioną już w hamowaniu dominującej reakcji) i hamowaniu uwagowemu, zarówno odruchu orientacyjnego, jak i powrotu. Friedman i Miya ke nie uwzględniają jednak w ogóle hamowania w uwadze, sprowadzając odporność na dystrakcję jedynie do kontroli interferencji. Zadaniem, które ich zdaniem pozwala zmierzyć skuteczność odporności na dystrakcję jest Test flankerów (Eriksen, Eriksen, 1974). W teście tym badani muszą dokonać identyfi kacji litery w warunku, gdy jest ona otoczona („oflankowana”) innymi literami. W warunku kontrolnym tego zadania litery wymagające rozpoznania prezentuje się bez dystraktorów lub w otoczeniu liter identycznych (zob. rozdz. 6.2.3). Trzeci rodzaj hamowania to odporność na interferencję proaktywną (resistance to proactive interference). Odpowiada on hamowaniu poznawczemu - jest procesem aktywnym i wysiłkowym, prowadzonym przy wykorzystaniu głębokich, trwałych reprezentacji umysłowych. Zadaniem pozwalającym zmierzyć siłę tego typu hamowania jest, według Friedmana i Miyakego, jeden z wariantów zadania Petersonów (Peterson, Peterson, 1959). Polega ono na odpamiętywaniu egzemplarzy pojedynczej kategorii, które wcześniej są sukcesywnie prezentowa ne. Procedura tego rodzaju wymusza intruzje w przywoływanym materiale. Jeśli na przykład lista zawiera tylko nazwy zwierząt, w odpamiętywanym materiale znajduje się dużo nazw zwierząt nie włączonych do pierwotnej listy. Im większa siła hamowania, tym mniej takich intruzji.
264
Rozdział 6. Kontrola poznaw cza
i
100 ms
i t I maska maska
600 ms 100 ms 500 ms 100 ms
t
b
6.2. Hamowanie jako mechanizm kontrolny
-
f j. { S i j ! sif
|
|
265
Badania Friedmana i Miyakego (2004) ujawniły, że odporność na interfe rencję proaktywną jest jakościowo odmienną formą hamowania. Ten typ ha mowania nie korelował w ogóle z odpornością na dystrakcję (-0,03), wykazując jedynie słaby, pozytywny związek z hamowaniem dominującej reakcji (0,18). Z kolei odporność na dystrakcję okazała się silnie powiązana z hamowaniem dominującej reakcji (0,68), podważając hipotezę o odrębności tych dwóch ro dzajów hamowania. Dodatkowo, zadanie Stroopa okazało się najlepszym zada niem mierzącym siłę hamowania dominującej reakcji (korelacja wyniku testu Stroopa i czynnika hamowania dominującej reakcji wyniosła 0,55), a Tęst flankerów najlepszym sposobem pomiaru siły odporności na dystrakcję (korelacja wyniku Testu flankerów i czynnika hamowania dystrakcji wyniosła 0,42). Jedynie zadanie Petersonów okazało się relatywnie słabym testem odporności na interferencję proaktywną (korelacja wyniku testu Petersonów i czynnika hamo wania pamięciowego wyniosła 0,29). Znacznie lepsze w tym względzie okazało się zadanie odpamiętywania ze wskazówką (Tolan, Tehan, 1999; korelacja wy niku Testu Tolanów i czynnika hamowania pamięciowego wyniosła 0,47), w którym badani zapamiętywali najpierw dwie listy wyrazów, a następnie odpamiętywali tylko drugą z nich, broniąc się przed interferencją płynącą z zapa miętywania pierwszej listy. Przezwyciężali tym samym tzw. efekt pierwszeństwa (zob. rozdz. 9), co należy zinterpretować jako przejaw skutecznej kontroli poznawczej. Friedman i Miyake (2004) sprawdzili także, czy wyróżnione rodzaje hamowania wpływają na wykonanie dwóch zadań, wymagających znaczącej kontroli poznawczej: zadania na poprzedzanie negatywne (paradygmat 6.3) i testu przerzutności uwagi (paradygmat 5.5). W pierwszym przypadku bada ny miał zareagować na jeden z dwóch bodźców, który w poprzedniej parze znaków powinien być ignorowany (ryc. 6.7). W drugim przypadku wymagano od osób badanych elastycznej zmiany w zakresie przetwarzania informacji alfabetycznych albo numerycznych, w zależności od wskazówki. Wykonanie zadania na poprzedzanie negatywne w niewielkim stopniu zależało od kombinowanego czynnika odporności na dystrakcję i hamowania dominującej reakcji (0,19), natomiast wyniki testu na przerzutność, jak się okazało zależą niemal wyłącznie od tego czynnika (0,91). Odporność na interferencję pro aktywną nie była istotnie związana z wykonaniem żadnego z dwóch powyż szych zadań. Można więc sformułować wniosek, że, niestety, próba strukturalnej dywer syfikacji rodzajów hamowania nie powiodła się. Friedman i Miyake zaproponowali redukcję sześciu rodzajów hamowania, znanych z taksonomii Nigga, do trzech tylko typów, pominąwszy zupełnie hamowanie w zakresie uwagi. Dwa Reakcja następuje na każdą kartę zawierającą bodźce (wyrazy lub kształty). Bodziec docelowy w parze jest narysowany zawsze na czarno, a bodziec ignorowany na biało, a - pryma z dystraktorem b - pryma bez dystraktora c - bodziec docelowy w układzie negatywnego poprzedzania d - bodziec docelowy w układzie kontrolnym
Ryc. 6.7. Przykłady zadań do badania poprzedzania negatywnego z wykorzystaniem bodźców werbalnych i niewerbalnych (za: Friedman, Miyake, 2004).
266
Rozdział 6. Kontrola poznawcza
proponowane przez nich typy hamowania: odporność na dystrakcję i hamowanie dominującej reakcji, okazały się silnie powiązane wzajemnie, a z kolei odpor ność na interferencję proaktywną nie wykazywała żadnych związków z pozo stałymi formami hamowania. Łatwo zrozumieć związek pierwszych dwóch typów hamowania, gdy zastanowić się nad procesami biorącymi udział w wykonywaniu zadania Stroopa i Testu flankerów. W przypadku obu zadań trzeba zarówno stłumić dominującą reakcję (przeczytanie słowa w zadaniu Stroopa lub nazwanie bodźca otaczającego literę w Teście flankerów), jak i obronić się przed dystrakcją (znaczenie słowa w zadaniu Stroopa i znaczenie dominujących ze względu na swą liczbę bodźców otaczających nazywaną literę w Teście flankerów). Zresztą Test flankerów bywa traktowany jako substytut zadania Stroopa (MacLeod, 1991). Zadania uznane przez Friedmana i Miyakego za kluczowe dla wyróżnionych typów hamowania mogą więc, jak się wydaje, być diagnostyczne również dla innych rodzajów tego zjawiska. W efekcie swych analiz Friedman i Miyake uzyskali więc tylko dwa czynniki hamowania, z których pierwszy można byłoby określić mianem uwagowego, a drugi pamięciowego. Tym dwóm rodzajom hamowania zdają się odpowiadać dwa typy interferencji: zasobowa interferencja uwagowa i proaktywna interferencja pamięciowa. Chcąc więc uporządkować strukturalnie przestrzeń różnych rodzajów hamowania, Friedman i Miyake sprowadzili je do dwóch, wcześniej dobrze już znanych mechanizmów (interferencja a zasoby Kahneman, 1973; interferencja a odpamiętywanie - Keppel i Underwood, 1962), znacznie upraszczając problem. Na podstawie dostępnych wyników badań i analiz teoretycznych trudno więc jednoznacznie rozstrzygnąć kwestię jednorodności mechanizmu hamowania. Na uwagę zasługują natomiast wyniki dotyczące przerzutności uwagi i poprzedzania negatywnego. Friedmanowi i Miyakemu udało się wykazać, że odporność na dystrakcję i hamowanie domi nującej reakcji odpowiadają niemal całkowicie za redukcję kosztów prze rzutności, a ponadto, że procesy te nie mają nic wspólnego z odpornością na poprzedzanie negatywne.
6.3. Funkcje zarządcze 6.3 .1 . Istota funkcji zarządczych czyli h o m u n cu lu s odnaleziony Psychologowie poznawczy od lat opisują różne, często bardzo złożone procesy przetwarzania informacji. Wiele już wiadomo np. na temat strategii podejmo wania decyzji, sposobów rozwiązywania problemów czy funkcjonowania reprezentacji umysłowych. Poszczególne rozdziały tego podręcznika wiedzę tę przedstawiają i ilustrują bogatym materiałem empirycznym. Nadal jednak nierozwiązany pozostaje problem homunculusa (Nęcka, 2004) - odnalezienia, opisania i wyjaśnienia mechanizmów działania Tego, który buduje reprezenta cje, steruje myśleniem i podejmuje ważne dla całości systemu poznawczego decyzje, a więc Tego, który mówiąc wprost kontroluje działanie systemu po znawczego. Próby rozwiązania problemu homunculusa sprowadzają się w psy chologii do podejścia funkcjonalnego, w którym określa się sposób działania
6.3. Funkcje zarządcze
f
jj
I I f S
I ;
: f = l l i i l i ; I 1; 5 l f i
267
mechanizmów kontrolnych, wskazując przy tym na ich różnorodne ograniczenia. Posługując się takim podejściem, omówiono w tym rozdziale mechanizmy automatyzacji (zob. rozdz. 6.1) i hamowania (zob. rozdz. 6.2), a w rozdziale poprzednim - podzielności (zob. rozdz. 5.2.4) i przerzutności uwagi (zob. rozdz. 5.2.5). Homunculus odnaleziony przez psychologów poznawczych (jakkolwiek tylko funkcjonalnie) ma różne nazwy. Zazwyczaj jednak określa się go mianem funkcji zarządczych (executive function). Od bardzo dawna (Gall, 1798; Liu, 1704; za: Zhu, 1989) wyrażano przekonanie, że w przednich płatach czołowych mózgu zlokalizowane są mechanizmy kontrolne procesów przetwarzania informacji. Ze względu na to, że mechaniżmy te wydają się odpowiadać za ukierunkowanie zachowania, zostały one nazwane zarządczymi. Są one niespecyficzne w tym sensie, że nie jest ich bezpośrednim zadaniem realizowanie jakiejkolwiek konkretnej formy przetwarzania informacji (np. myślenia indukcyjnego spostrzegania czy zapamiętywa nia). Ich upośledzenie (np. wskutek uszkodzeń strukturalnych mózgu lub lezji przednich płatów czołowych) zakłóca jednak wykonywanie wszelkich operacji poznawczych, przebiegających w dowolnych obszarach umysłu (Baddeley i in., 1997). Deficyty te noszą wspólną nazwę syndromu czołowego (frontal syn drome; Baddeley i in., 1997) i mają swoje konsekwencje w postaci dezorganiza cji wszystkich form zachowania. Badanie funkcji zarządczych jest jednak bardzo trudne. Kwestia ta w nieco węższym zakresie - tylko w odniesieniu do badań nad funkcjonowaniem me chanizmu hamowania - została omówiona już wcześniej (Friedman, Miyake, 2004; zob. rozdz. 6.2.1). Główny problem w badaniu funkcji zarządczych Baddeley i jego współpracownicy (1997) widzą w zależności wyników testów tych funkcji od zdolności w zakresie procesów przetwarzania informacji, których wykonanie w danym teście nadzoruje system kontrolny. Nie da się badać nad zoru w oderwaniu od tego, co jest nadzorowane. Dodatkowo, jedną z ważnych, immanentnych cech funkcji zarządczych wydaje się nieustanne dążenie do coraz większej wprawy w nadzorowaniu czynności - ponawianie badań z użyciem tego samego testu funkcji zarządczych z udziałem tych samych badanych prowadzi do znacznego uzależnienia wyników od efektu nabywania wprawy (Reitan, Wolfson, 1994), czy wręcz od wtórnej automatyzacji wykonania (Duncan, 1995). Co więcej, nie istnieje takie narzędzie, które pozwalałoby na zmierzenie jednocześnie wszystkich dysfunkcji w zakresie kontroli - w efekcie poszczególne testy funkcji zarządczych są używane łącznie, wykazując w różnych badaniach mniejszą lub większą wspólną wariancję w zakresie mierzonych procesów nadzoru (Baddeley i in., 1997). Prowadzi to do wyróżniania coraz to nowych funkcji zarządczych i nieustannego tworzenia strukturalnych teorii owych funkcji na podstawie uzyskanych współczynników korelacji.
: 6.3.2. Rodzaje funkcji zarządczych | f f |
Badaniem struktury funkcji zarządczych zajął się Miyake wraz ze współpracownikami (2000). Zastosowali oni w swoim badaniu na dużej próbie osób zdrowych (bez dysfunkcji czołowych) wiele różnych zadań, uważanych za testy funkcji zarządczych. Testy te odnoszą się do różnych procesów przetwarzania
268
Rozdział 6. Kontrola poznawcza
informacji, zarówno elementarnych (np. selektywna uwaga w warunku przerzutności - Wisconsin Card Sorting Test), jak i złożonych (np. rozwiązywanie problemów - Wieża z Hanoi). W wyniku analiz korelacyjnych i czynnikowych (podobnych jak dla funkcji hamowania; Friedman, Miyake, 2004), autorom udało się wykazać istnienie trzech odrębnych funkcji zarządczych. Wprawdzie poziom wykonania testów diagnostycznych dla tych funkcji był pozytywnie skorelowany ze sobą, ale relatywnie niewielki procent wspólnej wariancji suge rował raczej odrębność wyróżnionych funkcji. Konfirmacyjna analiza czynni kowa nie potwierdziła także istnienia czynnika wyższego rzędu - generalnego czynnika funkcji zarządczych. Miyake, Friedman, Emerson, Witzki i Howerter (2000) wymieniają więc wśród funkcji zarządczych następujące ich rodzaje: (1) przerzutność (pomiędzy zadaniami, procesami, czynnościami); (2) hamowanie (niepożądanej reakcji, bodźców zakłócających, narzucających się reprezentacji umysłowych) oraz (3) odświeżanie informacji w zakresie pamięci roboczej. Kluczowymi dla po szczególnych rodzajów funkcji zarządczych okazały się następujące zadania: (1) Wisconsin Card Sorting Test dla przerzutności; (2) Wieża z Hanoi dla ha mowania (tu: dominującej reakcji) oraz (3) Test Sternberga dla odświeżania informacji w zakresie pamięci roboczej. Fakt stwierdzonych korelacji między wyróżnionymi rodzajami funkcji zarządczych Miyake i współpracownicy wyjaś nili heterogenicznym charakterem użytych testów. Na przykład wykorzystane przez nich zadanie na generowanie interwałów losowych (Vandierendonck, de Voight, Van der Gotten, 1998) wymagało wykorzystania zarówno hamowa nia dominującej (tu: rytmicznej) reakcji, jak i odświeżania zawartości pamięci roboczej (Vandierendonck, 2000). Zadanie to silnie angażuje funkcje zarządcze pamięci roboczej, przez co jego realizacja jednocześnie z innymi zadaniami, wymagającymi kontroli, prowadzi do nieuniknionej interferencji. W badaniu stwierdzono zresztą także korelacje poziomów wykonania po szczególnych testów funkcji zarządczych. Autorzy analiz zasugerowali, że kore lacje te mogą wynikać z faktu wykorzystywania przez badanych dwóch ogólnych zdolności, które pomagają w rozwiązaniu każdego testu. Po pierwsze, wszystkie wykorzystane testy wymagają utrzymywania w pamięci roboczej uprzednio otrzymanych informacji o celu oraz treści wykonywanego zadania. Wymagają zatem zarówno zasobów kontroli uwagowej (aktywne podtrzymanie celu podanego w instrukcji), jak i pojemności pamięci prospektywnej (przechowanie celu przyszłej czynności; Marsh, Hicks, 1998). Po drugie, każde z zastosowanych zadań wymaga generalnych zasobów systemu, które można przeznaczyć na niespecyficzne hamowanie treści w danym momencie irrelewantnych. Istnienie generalnej zdolności do hamowania postulowali np. Dempster i Corkill (1999), jednak Friedman i Miyake (2004) nie byli w stanie wykazać jej istnienia (zob. rozdz. 6.2.2). Niestety, nie można stworzyć zadań nie wymagających udziału pamięci celu, ani wykonywać ich w warunkach nie wymagających w ogóle hamowania informacji nieistotnych. Odrębną kwestią pozostaje, czy odwołanie się do tak ogólnych zdolności czy też właściwości sytemu poznawczego dobrze wyjaśnia stwierdzone korelacje poziomu wykonania poszczególnych zadań wykorzystanych przez Miyakego i współpracowników. W badaniach tych (Miyake i in., 2000) wykryto także jeden test, którego rozwiązywanie nie było związane z żadnym z wyróżnionych rodzajów funkcji
6.3. Funkcje zarządcze
! | j j [■ j
; i ; I i
: ■ i
!
269
zarządczych. Co ciekawe, było to jedno z najbardziej złożonych zadań, jakie badani musieli wykonać, a więc taki test, w którego wykonywanie powinno być uwikłanych wiele różnych mechanizmów kontrolnych. Zadaniem tym był test selektywnej uwagi w warunku koniecznej jej podzielności. Badani musieli wykonywać jednocześnie dwa zadania: generowania słów i rozróżniania kształtów geometrycznych. Wprawdzie zadania te pozbawione były interferencji strukturalnej, ale trudność w ich wykonaniu polegała na konieczności odpo wiedniego zarządzania zasobami uwagi (interferencja zasobowa) i pojemnością pamięci krótkotrwałej. Dlatego też Collette i Van der Linden (2002) postulują dołączenie do taksonomii funkcji zarządczych, zaproponowanej przez Miyake i współpracowników, kolejnego, czwartego ich rodzaju - koordynacji wykonywania czynności jednoczesnych. Collette i Van der Linden (2002) dokonali także przeglądu badań nad neuronalnymi korelatami funkcji zarządczych. Zaprzeczyli tezie, iż funkcje zarządcze należy lokalizować tylko w przednich płatach czołowych. Wykonanie szeregu zadań na wszystkie cztery rodzaje funkcji zarządczych wymagało akty wacji zarówno przednich płatów czołowych, jak i płatów tylnych, a w szcze gólności ciemieniowych obszarów kory mózgowej nawet wtedy, gdy wpływ obciążenia pamięci treścią zadania został z analiz wykluczony. W innych ba daniach, nad pacjentami z chorobą Alzheimera, Collette, Van der Linden i Delrue (2002) wykazali, że dysfunkcje zarządcze mogą być związane nie tyle z zaburzeniem funkcjonowania płatów czołowych, ile z uszkodzeniem połączeń pomiędzy przednimi a tylnymi rejonami mózgu. Z kolei Owen (2000; Duncan, Owen, 2000) stwierdził, że mechanizm hamowania dominującej reakcji należy lokalizować tylko w części przednich płatów czołowych, zawierających obsza ry: środkową część grzbietowo-boczną, środkową część brzuszno-boczną oraz grzbietową część przedniej części zakrętu obręczy. Z analizy powyższych argumentów empirycznych wynika, że, z jednej stro ny, w obrębie płatów czołowych może występować specjalizacja dotycząca lo kalizacji poszczególnych funkcji zarządczych, a z drugiej zaś, że rejonów mózgu odpowiedzialnych za sprawowanie funkcji zarządczych należałoby poszukiwać również poza przednimi płatami czołowymi. Oznacza to, że poszukiwanie w mózgu lokalizacji homunculusa odpowiadającego za kontrolę są dalekie od zakończenia. Próba teoretycznego opracowania koncepcji funkcji zarządczych zaowocowała wieloma modelami kontroli poznawczej. Najbardziej znanymi wśród nich są koncepcje: markerów somatycznych (Damasio, Tranel, Damasio, 1991); mechanizmów uwagowych (Posner, 1980, 1994/1999; Norman, Shallice, 1986; Shallice, 1988) oraz mechanizmów pamięciowych (Baddeley, 1986, 1996, 2002). Poniżej przedstawione zostaną teorie uwagowe Posnera i Shallice’a oraz teoria pamięciowa Baddeleya, która de facto, jak się okaże, również jest teorią kontroli uwagowej. Natomiast omówienie koncepcji markerów somatycznych znaleźć można w pracy Aliny Kolańczyk (2004).
; 6.3.3. Mechanizm zarządczy w koncepcji uwagi Posnera ; Zgodnie z koncepcją Posnera (1980, 1994/1999) istnieją trzy podstawowe mei chanizmy uwagowe. Pierwszy z nich to mechanizm aktywacyjny. Zadaniem i uwagi jest m.in. podtrzymanie umysłu w stanie pobudzenia niezbędnego do
270
Rozdział 6. Kontrola poznawcza
wykonania danej czynności poznawczej. Zależność różnych aspektów funkcjo nowania uwagi od mechanizmu pobudzeniowego jest często uwzględniana, zwłaszcza w koncepcjach uwagi podzielnej (Kahneman, 1973; Nęcka, 1994; zob. rozdz. 5.2.4) oraz w teoriach przedłużonej w czasie koncentracji uwagi (Davies, Tune, 1969; Davies, Parasuraman, 1982; zob. rozdz. 5.2.3). Zgodnie z tymi koncepcjami poziom pobudzenia jest wprost proporcjonalny do ilości zasobów, jakie można przeznaczyć na jednoczesne wykonanie różnych czyn ności poznawczych, oraz do ilości czasu, w którym można koncentrować uwagę na rzadko pojawiających się sygnałach. Drugi z wyróżnionych przez Posnera mechanizmów funkcjonowania uwagi to mechanizm orientacyjny. Mechanizm ten odpowiada za przenoszenie uwagi w polu percepcyjnym z obiektu na obiekt. Jego funkcjonowanie opisują wyniki badań w paradygmacie przeszukiwania pola wzrokowego (Treisman, 1988; Yantis, Jonides, 1984; zob. rozdz. 5.2.2). Mechanizm orientacyjny włącza się, gdy w polu wzrokowym nastąpi jakakolwiek zmiana stymulacji, np. wtedy, gdy pojawi się w nim nowy bodziec (Yantis, Jonides, 1984) lub bodziec już w polu występujący zostanie wprawiony w ruch (Tarnowski, Terelak, 1996). Bodziec taki przyciąga uwagę, niezależnie od tego czy jest sygnałem, czy też dystraktorem (Theeuwes, 1994). Włączenie mechanizmu orientacyjnego w odpowiedzi na zmianę w polu percepcyjnym ma charakter automatyczny, a sprawowanie nad nim kontroli jest możliwe, ale znacznie utrudnione, nawet wtedy, gdy badani znają możliwą lokalizację sygnałów i bodźców zakłócających (Godijn, Theeuwes, 2002). Ostatnim z wyróżnionych przez Posnera i jednocześnie najważniejszym z punktu widzenia tych rozważań mechanizmem uwagi jest mechanizm zarząd czy. Odpowiada on za kontrolę wykonania czynności celowych (np. za detekcję określonego typu sygnałów). Mechanizm zarządczy bierze górę nad mechaniz mem orientacyjnym w przypadku funkcjonowania uwagi człowieka dorosłego. Na przykład wskazuje podróżnemu poszukiwanie informacji o czasie odjazdu pociągów na żółtym rozkładzie jazdy - rozkład odjazdów, a nie na białym rozkład przyjazdów. Tak więc mechanizm orientacyjny odpowiada z grubsza uwadze mimowolnej, a zarządczy - uwadze dowolnej. Przewagę mechanizmu zarządczego nad orientacyjnym wykazał w swoich badaniach Theeuwes wraz ze współpracownikami (1999; Godijn, Theeuwes, 2002; choć wyniki tych badań Theeuwes skłonny był interpretować przeciwnie; por. Theeuwes, 2001; Szy mura, 2004). W ich eksperymentach okazało się, że w przypadku tylko jednej trzeciej ogółu zadań detekcyjnych badani ulegali mechanizmom orientacyjnym, programując błędny ruch sakkadowy gałek ocznych w stronę lokalizacji poja wiającego się właśnie w ich polu widzenia dystraktora, mimo że zdawali sobie sprawę z tego, iż w tej lokalizacji pojawienie się sygnału nie jest możliwe. Po 100 ms fiksacji na bodźcu zakłócającym, mechanizm zarządczy uwagi dokony wał korekty, programując ruch sakkadowy gałek ocznych w kierunku lokalizacji następnego sygnału pojawiającego się w polu wzrokowym. Jednak w przypadku aż dwóch trzecich ogółu zadań detekcyjnych mechanizm zarządczy sprawował skuteczną kontrolę nad mechanizmem orientacyjnym, uniemożliwiając przekierowanie percepcji i uwagi na bodziec zakłócający. W innym eksperymencie Theeuwes i Burger (1998) wykazali, że mechanizm zarządczy może skutecznie ograniczyć interferencję płynącą z bodźców zakłóca-
6.3. Funkcje zarządcze
271
jących, jeśli system poznawczy z wyprzedzeniem zna np. kolor, odróżniający oba l rodzaje bodźców: sygnał i dystraktor. Z kolei wiadomo, że fałszywe wskazówki dla mechanizmu zarządczego znacznie pogarszają efektywność uwagi selektywnej - mechanizm zarządczy steruje wtedy mechanizmem orientacyjnym w stronę, f w której sygnał się nie pojawia, a szybkość detekcji znacznie się obniża (Posner, i Nissen, Ogden, 1978; Theeuwes, Kramer, Atchley, 1999). Z powyższych danych wynika, że zarządczy mechanizm uwagi odpowiada za takie funkcje kontrolne, jak hamowanie uwagowego odruchu orientacyjnego \ oraz kontrolę interferencji pochodzenia zewnętrznego (odporność na dystrakcję). Niepowodzenie w funkcjonowaniu tego mechanizmu odpowiada natomiast za hamowanie powrotu (inibition oj return), czyli niedopuszczanie do powrotu uwagi do wskazanego miejsca pojawienia się sygnału. Hamowanie powrotu | zostało stwierdzone po raz pierwszy przez Posnera i Cohena (1984). Zauważyli oni, że relewantna wskazówka odnośnie do lokalizacji sygnału przyspiesza jego detekcję do 150 ms po jej prezentacji. Jednak w 300 ms po prezentacji relewantnej wskazówki następuje znaczne pogorszenie szybkości detekcji sygnału w pozycji przez nią wskazanej. Tak więc po wczesnym ułatwieniu (facylitacja) następuje późne utrudnienie (hamowanie) reakcji na sygnał. Hamowanie po wrotu jest niezależne od modalności sygnału, ale zależne od intensywności sygnału, co klasyfikuje ten proces jako uwagowy (Reuter-Lorenz, Jha, Rosenquist, 1996). Jedno z wyjaśnień efektu hamowania powrotu, zgodne z teorią Posnera, sugeruje, że czas 200 ms od prezentacji wskazówki (w odchyleniu od 150 ms do 300 ms) jest interwałem, w którym mechanizm orientacyjny na kierowany przez mechanizm zarządczy na lokalizację potencjalnego sygnału (zgodnie ze wskazówką) oczekuje na pojawienie się spodziewanego bodźca. Brak oczekiwanego bodźca, interpretowany przez system prawdopodobnie jako nieskuteczność funkcjonowania mechanizmu zarządczego powoduje przejęcie kontroli nad uwagą przez mechanizm orientacyjny i poszukiwanie bodźca w innej lokalizacji (Kolańczyk, 2004). Kontrola uwagowa jest, zgodnie z modelem Posnera, sprawowana odgórnie (top-down) i ma charakter wewnętrzny (endogenous) - to właśnie mechanizm zarządczy efektywnie determinuje, co i w jaki sposób będzie dalej przetwarzane. Mechanizm ten ma ogólną przewagę nad mechanizmem orientacyjnym. Per cepcja podąża więc z reguły za uwagą, a nie uwaga za percepcją (zob. dyskusja dotycząca modeli kontroli poznawczej pomiędzy Theeuwsem i Bundesenem Szymura, 2004). Wyjątkiem są sytuacje, w których mechanizm zarządczy nie jest jeszcze dostatecznie ukształtowany (labilna uwaga małych dzieci), albo pojawia się niepewność odnośnie do pojawienia się sygnału (hamowanie po wrotu) bądź stosowanej zasady selekcji. Wtedy bowiem mechanizm orientacyjny bierze górę nad zarządczym, a przetwarzanie informacji sterowane jest oddolnie (.bottom-up) i ma charakter zewnętrzny (exogenous), przez co uwaga podąża za percepcją, będąc automatycznie nakierowaną na spostrzegany obiekt (Duncan, 1985; Chun, Wolfe, 2001). 6.3.4. Dwustopniowy system kontroli zachowania w koncepcji Shallice'a Zgodnie z koncepcją Tima Shallice’a (1988; Norman, Shallice, 1986) zachowa nie jest kierowane w większości przez automatyzmy (rutyny), zarówno
272
Rozdział 6. Kontrola poznawcza
pierwotne (odruchy), jak i wtórne (nawyki). Czasami zdarza się jednak, że poszczególne czynności automatyczne pozostają ze sobą w konflikcie. Na przy kład czynność kierowania samochodem w drodze do domu w miejscu stałego zamieszkania pozostaje w konflikcie z reakcją na czerwone światło (sygnał-stop) w miejscu przejścia dla pieszych. W przypadku konfliktu czynności automatycznych o tym, która czynność jest realizowana jako pierwsza w kolejności, decyduje system kontroli czynności automatycznych, działający również w sposób automatyczny. Jego zadaniem jest hamowanie tych wszystkich rutyn, które w mniejszym stopniu - niż wyselekcjonowana czynność automatyczna - są dostosowane do sytuacji bodźcowej. Warto zwrócić uwagę, iż w koncepcji systemu kontroli czynności automatycznych Shallice proponuje nieco inne - niż Logan (1988, 2002) w swojej teorii rywalizacji egzemplarzy kryterium rozstrzygania o tym, który proces wygrywa wyścig o pierwszeństwo w wykonaniu. To dostosowanie czynności do sytuacji bodźcowej, a nie liczba dowodów skutecznego stosowania tej czynności, decyduje - zdaniem Shallice’a - o jej uruchomieniu. W powyższym przykładzie czynność prowadzenia samochodu zostanie automatycznie powstrzymana - jest ona bowiem zupełnie niedostosowana do warunków jazdy (czerwone światło dla kierunku jazdy). Ogólnym zadaniem mechanizmu automatycznego, selektywnego hamowania działań rutynowych jest ustalenie rozkładu jazdy czynności automatycznych (contention scheduling). Zgodnie z takim rozkładem czynność kierowania samochodem zostaje uruchomiona jako druga w kolejności, w momencie gdy zmienią się warunki sytuacji (zapali się zielone światło dla kierunku jazdy). System kontroli czynności automatycznych jest jednak nieskuteczny w sy tuacjach nowych, w których stosowanie rutyny kończy się z reguły niepowo dzeniem. W takich bowiem warunkach trzeba zahamować dominującą reakcję, monitorować i korygować błędy wynikające z prób dostosowania posiadanych schematów do nowych układów bodźców je wyzwalających, a także podejmo wać złożone decyzje i tworzyć nowe plany działań. Kontrolą przetwarzania informacji w takich warunkach zajmuje się nadzorczy system uwagi (Supervi sory Attentional Subsystem, SAS; Shallice, 1988; Norman, Shallice, 1986; inna polska nazwa tego systemu to dominujący system zadaniowy - zob. Kolańczyk, 2004). System ten zaangażowany jest zawsze wtedy, kiedy pomiędzy dwoma celowymi czynnościami nieautomatycznymi występuje konflikt interesów, powodowany przez niespójność bodźców, ich reprezentacji w umyśle, czy też generowanych w odpowiedzi na nie reakcji. Podobnie, jak w przypadku systemu kontroli czynności automatycznych, zadaniem SAS jest układanie „rozkładu jazdy” czynności kontrolowanych oraz ich bieżący monitoring (scheduling and control). Zadanie to SAS realizuje poprzez tworzenie ad hoc nietrwałej reprezentacji umysłowej dla sytuacji problemowej, zawierającej plan działania w odniesie niu do bodźców wyzwalających. Reprezentacja jest tworzona przez system kon troli, czyli selektywne zestawianie ze sobą danych umysłowych (pamięć długo trwała) i danych zmysłowych (bodźce z otoczenia). Działanie SAS można więc z jednej strony (uwagowej) opisać jako proces rekonfiguracji zestawów zada niowych (Rogers, Monsell, 1995; zob. rozdz. 5.2.5; Shallice, 1988, była zwo lenniczką koncepcji modularności umysłu; zob. rozdz. 1), a z drugiej (pamię ciowej) -ja k o proces modyfikacji i nabywania schematów pamięciowych (przez
6.3. Funkcje zarządcze
! [ i j
i j
; ; ; ; i
j I ; ; ; i ś : j
273
przyrost informacji, dostrajanie i restrukturalizację; Rumelhart, Norman, 1978, 1981). Błędy kontroli ze strony SAS pojawiają się wtedy, gdy schematy pamię ciowe zostają zastosowane automatycznie, bez koniecznej korekty, uwzględnia jącej nowość sytuacji bodźcowej. Na przykład, gdy zadaniem jest podrzucenie w drodze do domu kogoś mieszkającego na sąsiednim osiedlu, SAS dostosowuje plan jazdy do zadania. Jeśli jednak kierowca zaangażuje się w rozmowę z pasa żerem, jego system kontroli czynności może przełączyć monitoring czynności prowadzenia samochodu z poziomu kontrolowanego na automatyczny, anga żując się na wyższym poziomie nadzoru w kontrolę rozmowy. W takiej sytuacji prawdopodobnie kierowca będzie musiał podwozić pasażera znacznie dalszą drogą, przebiegającą najpierw przez jego osiedle (co zapewne stwierdzi z zażenowaniem). System kontroli czynności nieautomatycznych posługuje się więc mechanizmami selektywnej inhibicji i selektywnej aktywacji w konstruowaniu nowych planów działania. Z założeń modelu kontroli zachowania, według Shallice’a, wynikają trzy istotne konsekwencje. Po pierwsze (wskazuje na to również powyższy przykład), działanie systemu kontroli czynności nieautomatycznych może zostać upośledzone w sytuacji wykonywania zadań jednoczesnych o porównywalnym priorytecie. Słuszność tego przypuszczenia wykazali Shallice i współpracownicy (1994; Shallice, Burgess, 1996; zob. jednak Baddeley i in., 1984). Osoby badane w ich eksperymentach miały problemy z przywoływaniem informacji z pamięci epizodycznej podczas wykonywania jednoczesnego zadania wymagającego koncentracji uwagi. W pamięci epizodycznej przechowywane są ślady skuteczności działania schematów w poszczególnych sytuacjach bodźcowych. Utrudnienie przywoływania tych informacji może powodować problemy w tworzeniu adekwatnego planu działania w nowej sytuacji. Po drugie, system kontroli czynności nieautomatycznych może funkcjonować skutecznie jedynie przy efektywnym hamowaniu interferencji ze strony danych zawartych w pamięci (Gilbert, Shallice, 2002). W warunkach nowości nie istnieje bowiem gotowa do zastosowania, automatyczna czynność, a przywoływanie z pamięci dotyczy różnych schematów lub ich elementów, które muszą być następnie selektywnie hamowane lub aktywizowane. Po trzecie, ponieważ umysł zmuszony jest per manentnie funkcjonować w sytuacji zadań jednoczesnych, jednym z najważniejszych mechanizmów kontrolnych SAS powinien być mechanizm przerzutności pomiędzy elementami aktualnie przetwarzanych schematów działań (Shallice, 1988). Efektywne przełączenia, np. pomiędzy czynnościami prowadzenia samochodu i rozmowy z pasażerem zapobiegają błędom SAS. Nadzorczy system uwagi lokalizowano - podobnie jak pozostałe funkcje, mechanizmy czy systemy zarządcze - w obrębie przednich płatów czołowych (Shallice, 1988; Norman, Shallice, 1986). W badaniach pacjentów z uszkodzo nymi tymi właśnie strukturami mózgowymi stwierdzono występowanie błędów perseweratywności (Shallice, 1982). Badani ci nie byli w stanie dostosować planu swojego działania do zmieniających się warunków stymulacji. Kontynuowali wykonanie starego planu (rutyny), nawet wtedy, gdy nie było to im pomocne w danej sytuacji lub nie było to od nich wymagane (Shallice i in., 1989). Z kolei Owen i współpracownicy (1993) wykazali istotne zaburzenia w zakresie funkcjonowania przerzutności uwagi u badanych z deficytami neuronalnymi przednich płatów czołowych. Powyższe dane potwierdzają zarówno lokalizację
274
Rozdział 6. Kontrola poznawcza
SAS, jak i podstawowe znaczenie dla funkcjonowania tego systemu, jakie ma mechanizm przerzutności uwagi, pozwalający na radzenie sobie w sytuacji zadań jednoczesnych. Dwustopniowy model kontroli poznawczej Shallice’a, obejmujący system kontroli czynności automatycznych i system kontroli czynności nieautomatycz nych, jest wprawdzie modelem kontroli uwagowej, ale w znacznie większym stopniu niż model Posnera odnosi się on do trwałych reprezentacji pamięcio wych. W modelu tym dużą rolę odgrywają mechanizmy hamowania interferencji pamięciowej, zaś wśród mechanizmów uwagowych znacznie większe znaczenie mają procesy uwagowe wyższego rzędu, związane z zarządzaniem zasobami (kontrola czynności jednoczesnych) czy rekonfiguracją zestawów zadaniowych (kontrola przerzutności uwagi) niż procesy uwagowe niższego rzędu, związane z kontrolą percepcyjną (mechanizm zarządczy sprawujący kontrolę nad mechanizmem orientacyjnym). Modele uwagowej kontroli Posnera i Shallice’a są więc komplementarne - wskazują bowiem na inne mechanizmy kontroli poznawczej, które są realizowane w ramach różnych aspektów uwagi (selektywność vs. przerzutność i podzielność) i są wzbudzane w zależności od poziomu złożoności sytuacji (prosta detekcja vs. złożone zachowanie).
6 .3 .5 . Centralny system wykonawczy pamięci roboczej w modelu Baddeleya Baddeley (1986) zapożyczył model SAS od Shallice’a i wykorzystał go w two rzeniu własnej koncepcji centralnego systemu wykonawczego (central executi ve; Baddeley, 2002; Olivie, 2004). System ten jest jednym z elementów pamięci roboczej (working memory, WM; Baddley, 1986, 2002; Baddeley, Hitch, 1974). Koncepcja pamięci roboczej omówiona została w innym miejscu (zob. rozdz. 8.2.3). Poniżej scharakteryzowana zostanie jedynie rola, jaką pełni w systemie poznawczym centralny system wykonawczy. Wprawdzie Baddeley (1986,1996) wyraźnie sugerował, że centralny system wykonawczy sprawuje swe funkcje kontrolne w sposób bardzo zróżnicowany, to jednak badania mechanizmów jego funkcjonowania skupiły się jedynie na problemie kontroli wykonania zadań jednoczesnych (Baddeley i in., 1997). Baddeley i Lewis (1981) wykazali np. możliwość jednoczesności przetwarzania dwóch różnych informacji werbalnych. Badani w paradygmacie podążania byli zdolni do powtarzania zasłyszanej prozy oraz decydowania o rymach pokazy wanych im jednocześnie wyrazów. Baddeley (1990) poprosił również badanych o jednoczesne wykonywanie zadania Sternberga (1966) na przeszukiwanie pamięci krótkotrwałej i weryfikowanie prawdziwości zdań w paradygmacie podejmowania decyzji semantycznych (Smith, Shoben, Rips, 1974). Okazało się, że badani radzili sobie z jednoczesnym wykonywaniem obu zadań, a jedyne koszty, które ponosili, były kosztami czasowymi (wydłużenie czasu weryfikacji zdań o 33%) w warunku maksymalnego (8 elementów) obciążenia pamięci roboczej. Natomiast badania prowadzone nad pacjentami z chorobą Alzheimera pokazały, że jednoczesne wykonywanie dwóch zadań (śledzenie obiektów w po lu wzrokowym oraz przechowywanie cyfr w pamięci krótktotrwałej) jest znacz-
6.3. Funkcje zarządcze
275
i
\ i I I i | l i
( | [ [
nie upośledzone w przypadku tych pacjentów w porównaniu do zdrowych osób badanych z grupy kontrolnej, mimo że w wykonaniu pojedynczym tych zadań nie stwierdzono żadnych różnic pomiędzy wyróżnionymi grupami (Baddeley i in., 1991; Logie i in., 2000). Badani pacjenci z chorobą Alzheimera szybciej także ulegali zmęczeniu, gdy zmuszeni byli kontrolować te dwa zadania jednocześnie (Della Sala i in., 1995). Baddeley i współpracownicy (1997) zbadali ponadto dwie grupy pacjentów z lezjami przednich płatów czołowych. Grupy te różniły się ze względu na występowanie syndromu czołowego. Wszyscy badani wykonywali test zadań podwójnych, na który składały się: test WCST (Wisconsin Card Sorting Test - test selektywności w warunku przerzutności uwagi) oraz zadanie na płynność słowną. Nie stwierdzono żadnych istotnych różnic w zakresie wykonania pojedynczych zadań przy porównaniu obu badanych grup. Jednak pacjenci z syndromem czołowym wykazali się znacznie gorszą koordynacją wykonania obu tych zadań jednocześnie - ich wyniki w warunku zadań podwójnych były znacznie gorsze, niż rezultaty uzyskane przez badanych z grupy nie wykazującej syndromu czołowego. Centralny system wykonawczy, zdaniem Baddeleya (1993, 2002), jest więc odpowiedzialny za kontrolę zadań jednoczesnych. Jego głównym zadaniem jest zarządzanie zasobami uwagowymi systemu poznawczego i przeznaczanie ich do wykonywania czynności jednoczesnych. Kontrola czynności jednoczesnych, jak pokazały wcześniejsze badania Baddeleya i współpracowników, jest możliwa, a redukcja kosztów poznawczych w wyniku efektywnej kontroli - wydajna. Istnieją jednak takie zadania, które wydają się pobierać całą dostępną moc centralnego systemu wykonawczego i ich kontrolowanie jednocześnie z innymi zadaniami okazuje się niemożliwe. Przykładem takiego zadania jest test gene rowania liczb losowych. Baddeley, Emslie, Kolodny i Duncan (1998) wykazali, że jednoczesne generowanie liczb losowych i wykonywanie równoległych zadań, zarówno werbalnych, jak i wizualnych prowadzi do nieredukowalnych kosztów w zakresie wykonywania tych ostatnich. Baddeley (1996, 2002) nie widzi zresztą większych funkcjonalnych różnic między systemem dystrybucji zasobów (Kahneman, 1973) a centralnym syste mem wykonawczym swojej koncepcji pamięci roboczej. Dodatkowym argumen tem za tym, iż centralny system wykonawczy ma charakter uwagowego systemu kontrolnego, były wyniki badań Baddeleya i współpracowników (1984). Wykazali oni, że wprawdzie zadanie doładowujące w paradygmacie zadań podwójnych upośledza zapamiętywanie (co jest przecież funkcją uwagi; zob. hipoteza uwagowa; Logan, Etherton, 1994; Logan, Taylor, Etherton, 1996), jednak nie wpływa ono w żadnym stopniu na przywołanie informacji z pa mięci. Dlatego nadzorczy system uwagi SAS i centralny system wykonawczy pamięci roboczej są przypuszczalnie różnymi konstruktami. Podczas gdy ten pierwszy funkcjonuje na podstawie informacji przywołanych z pamięci dłu gotrwałej i selektywnego hamowania wybranych trwałych reprezentacji umysłowych, to mechanizm działania tego drugiego dotyczy kontroli jedynie w aspekcie hamowania interferencji uwagowej, związanej z rywalizacją o zasoby systemu. Centralny system wykonawczy lokalizowany jest w przednich płatach czołowych, choć jego umiejscowienie należałoby jeszcze doprecyzować, bo nie wszystkie uszkodzenia tej struktury mózgu są związane z deficytami w zakresie
276
Rozdział 6. Kontrola poznawcza
funkcjonowania tego systemu, a jedynie te, które wiąże się z syndromem czoło wym. Nie do końca jest także jasne, czy centralny system wykonawczy pamięci roboczej jest jednolity strukturalnie i funkcjonalnie. Postulowane przez Badde leya (1996) badania z użyciem dużej liczby zadań w najprzeróżniejszych ich jednoczesnych kombinacjach, wraz z zastosowaniem analiz korelacyjnych i czynnikowych (podobnie jak w przypadku mechanizmu hamowania - zob. Friedman, Miyake, 2004) nie zostały do tej pory konsekwentnie podjęte. Zda niem Baddeleya (2002, s. 89) centralny system wykonawczy jest jednak kandydatem na poszukiwanego przez psychologię poznawczą homunculusa, kontrolującego zachowanie.
6.4 . Podsum ow anie Czy teza Daniela Dennetta, że „umysł to armia idiotów”, znajduje potwierdzenie w treści niniejszego rozdziału? Sens tej przewrotnej i prowokacyjnej tezy sprowadza się do tego, że nauka musi odrzucić wszelkie próby wyjaśnienia zja wiska kontroli poznawczej, które w ten czy inny sposób odwołują się do homunculusa. Jeśli tego nie zrobi, będzie musiała szukać odpowiedzi na pyta nie, kto kontroluje homunculusa itd. Jak się wydaje, psychologia jest jeszcze dość daleko od tego celu. Liczne koncepcje kontroli poznawczej w ten czy inny sposób „przemycają” homunculusa do architektury umysłu, nadając mu inne nazwy, np. centralny system zarządczy, nadzorczy system uwagi lub funkcje zarządcze. Opisane w tym rozdziale koncepcje i badania niosą ważną treść i duży ładunek rzetelnej wiedzy, a jednak ciągle tkwią w pułapce zastawionej przez ukrytego homunculusa. Prawdziwy przełom w badaniach nad kontrolą i sa mokontrolą dokona się prawdopodobnie dopiero wtedy, gdy psychologia empiryczna zmierzy się z problemem podmiotu. Wydaje się, że jest to jednym z ważniejszych wyzwań stojących przed naszą dyscypliną.
Rozdział
Percepcja
Podstawowe właściwości percepcji 278 Recepcja sensoryczna i percepcja umy słowa 278 Naiwne koncepcje spostrzegania 280 Spostrzeganie a rozpoznawanie wzorców 281 Spostrzeganie jako proces oddolny 283 Odbiór i kodowanie wrażeń zmysłowych 283 Magazyny informacji sensorycznej 285 Spostrzeganie głębi 288 Identyfikacja obiektu 292 Spostrzeganie jako proces odgórny 295 Stałość spostrzegania 295 Nastawienie 296
Złudzenia i błędy percepcji 297 Wpływ kontekstu na spostrzeganie 298 Teorie percepcji 299 Teoria asocjacjonistyczna 299 Teoria postaciowa 301 Teoria wzorców 303 Teoria cech 305 Teoria obliczeniowa 307 Teoria ekologiczna 309 Proces spostrzegania w praktyce 312 Spostrzeganie twarzy 312 Czytanie słów 314 Podsumowanie 317
Percepcja (spostrzeganie) to proces aktywnej interpretacji danych zmysłowych z wykorzystaniem wskazówek kontekstuałnych, nastawienia i wcześniej nabytej wiedzy. W wyniku percepcji dochodzi do rozpoznania obiektu, np. przedmiotu. Recepcja sensoryczna polega na odzwierciedleniu bodźców w receptorach, czyli narządach zmysłów. Stanowi konieczny warunek i pierwszy etap procesu spostrzegania. Jak zauważył Blaise Pascal: „Jest lepiej patrzeć na coś z punktu widzenia całości, niż na całość z punktu widzenia jednej rzeczy”. Do tej intuicji XVII-wiecznego francuskiego filozofa współczesny psycholog poznawczy mógłby dodać, że najczęściej tak właśnie się dzieje. Patrząc na coś, widzimy raczej cały obiekt, niż składające się nań części. Widzimy przedmiot, a nie tworzące go kształty, kolory, kontury i inne atrybuty. Możemy oczywiście nazwać kolor obiektu, ale najpierw rozpoznajemy, co to za obiekt, a dopiero wtórnie możemy skupić uwagę na jego cechach lub składnikach. W przypadku innych zmysłów, czyli słuchu, dotyku, węchu i smaku, zasada prymatu całości nad częścią jest trudniejsza do udo wodnienia, ale istnieją poważne argumenty za nią przemawiające. Na przykład słuch dostarcza nam informacji o tym, jaki obiekt słyszymy, a smak - co jemy. Do organizmu docierają pojedyncze sygnały pozbawione znaczenia, np. fale świetlne lub akustyczne o określonych parametrach amplitudy i częstotliwości. System poznawczy dokonuje olbrzymiego wysiłku, aby te sygnały zinter pretować, co prowadzi go do identyfikacji obiektu, stanowiącego źródło stymu lacji. Psychologia poznawcza bada i opisuje czynność identyfikacji obiektów w procesie spostrzegania, a także rozpoznaje czynniki mające wpływ na przebieg tego procesu. Percepcja to zresztą nie pojedynczy proces, a zbiór procesów poznawczych. Ich zadanie polega na zapewnieniu nam kontaktu z rzeczywistością, czyli z wydarzeniami mającymi miejsce poza organizmem, a ściślej rzecz biorąc poza układem nerwowym, bo do zadań percepcji należy też dostarczanie danych o stanie narządów wewnętrznych (np. ból brzucha) i aktualnym stanie poło żenia kończyn (propriocepcja, tj. czucie własne). W wyniku tych procesów pojawiają się w umyśle spostrzeżenia (percepty), czyli nietrwałe umysłowe reprezentacje obiektów. Spostrzeżenia mają postać obrazową, są nietrwałe, choć od samego początku procesy spostrzegania podlegają wpływom ze strony reprezentacji trwałych (pojęcia, schematy) oraz ze strony struktur wiedzy.
7.1. Podstawowe właściwości percepcji 7.1 .1 . Recepcja sensoryczna i percepcja um ysłowa Stanowisko konstruktywistyczne w psychologii poznawczej zakłada aktywność umysłu w poznawaniu rzeczywistości. Proces spostrzegania nie jest z tego punktu widzenia biernym odzwierciedlaniem w umyśle rzeczywistych obiek tów, ale aktywnym konstruowaniem reprezentacji tych obiektów. Levine i Shefner (1981, s. 1) sugerują, że „[...] percepcja odnosi się do sposobu,
7.1. Podstaw ow e w łaściw ości percepcji
279
w jaki człowiek interpretuje informacje zgromadzone przez zmysły”. Mówiąc innymi słowy: człowiek odczuwa obecność stymulacji, a spostrzega, czym ona jest. Podczas gdy gromadzenie informacji przez zmysły, czyli recepcja sen soryczna, zwana również sencepcją1, jest procesem raczej pasywnym, to ich dalsze odzwierciedlanie w systemie poznawczym, czyli percepcja umysłowa, nie może obyć się bez aktywności umysłu. Oba składniki procesu spostrzegania są niezbędne dla efektywnej percepcji. Bez recepcji sensorycznej nie ma bowiem informacji, która może być później interpretowana, natomiast bez interpretacji zgromadzone dane nic nie znaczą - nie może być wtedy mowy 0 identyfikacji spostrzeganych obiektów. Dlatego też Bruner (1957; Bruner, Goodman, 1947) określił spostrzeganie jako proces konfrontacji danych zmysłowych z danymi umysłowymi, do której dochodzi wtedy, gdy narząd zmysłu (np. smaku) rozpoczyna gromadzenie informacji (kwaśność, słodkość itd.), które w procesie interpretacji służą włączeniu poznawanych obiektów do kategorii nadrzędnej (np. jabłko z gatunku „Lobo”). Podstawowym problemem teorii spostrzegania jest próba opisu procesu przemiany relatywnie prostych danych zmysłowych w złożone reprezentacje umysłowe. Sekuler i Blake (1994) określają ten proces jako przekład informacji zmysłowych na język kodu, który może być zrozumiały dla złożonych struktur nerwowych sytemu poznawczego. Podobnie Roth (1986) opisuje percepcję jako proces transformacji informacji pochodzących ze środowiska w indywidualne doświadczenie obiektów, wy darzeń czy zjawisk, wskazując na narządy zmysłów jako stacje przekaźnikowe tej przemiany. Fizyczną formę energii, zdolną do zapoczątkowania procesu spostrzegania, przyjęło się w psychologii nazywać bodźcem. Bodziec w procesie recepcji sensorycznej zmienia swój charakter. Początkowo jest to bodziec dystalny, zewnętrzny, znajdujący się poza systemem poznawczym i odległy względem jego receptorów. Wskutek bezpośredniego kontaktu z narządem zmysłu bodziec dystalny staje się bodźcem proksymalnym, wewnętrznym i bliskim. W przypadku zmysłu wzroku bodźcem proksymalnym jest odwrócony i pomniejszony na siatkówce obraz bodźca dystalnego. Natomiast w przypadku zmysłu słuęhu dystalne dźwięki wywołują proksymalne drgania błony bębenkowej ucha. Także zmysły dzielą się na bliskie i dalekie (Sekuler, Blake, 1994). Do tych pierwszych, zwanych również receptorami kontaktowymi, zaliczamy zmysł smaku, dotyku 1 węchu, podczas gdy zmysły dalekie, zwane też telereceptorami, są reprezen towane przez wzrok i słuch. Odebranie (rejestracja; recepcja) bodźca proksymalnego prowadzi do powstania wrażeń. Są one najprostszymi procesami psychicznymi, w wyniku których dochodzi do odzwierciedlenia w spostrzegającym umyśle pojedynczych właściwości rejestrowanych obiektów (Hebb, 1969). Według Hebba wrażenia należy traktować jako wynik aktywności receptorów zmysłowych i dróg czu ciowych, przekazujących tę aktywność z narządów zmysłowych do kory czucio wej w mózgu. Odbiór bodźców wzrokowych zwykle prowadzi do odczucia takich wrażeń, jak np. kolor, wielkość czy kształt. Recepcja bodźców słucho wych wywołuje wrażenia związane ze skalą dźwięku (wysoki, niski), barwą 1 Termin ukuty przez prof. Andrzeja Klawitera.
280
Rozdział 7. Percepcja
(czysty, mieszany) czy siłą (cichy, głośny). Spostrzeżenie jest natomiast ca łościowym odzwierciedleniem obiektów, składających się na ten obiekt bodźców dystalnych i wywoływanych przez nie wrażeń. Jednym z głównych problemów psychologii percepcji jest określenie wzajemnych relacji pomiędzy wrażeniami a spostrzeżeniami. Nawet najprostsze spostrzeganie jest procesem biologicznym, a zatem wymaga złożonych interakcji najprzeróżniejszych systemów komórek nerwo wych. Opisując proces percepcji od strony neurofizjologicznej, próbujemy wskazać układy nerwowe odpowiedzialne za detekcję poszczególnych właści wości bodźców; zróżnicowanie w ich zakresie zostanie przedstawione w rozdz. 7.4.5 przy okazji omówienia teorii obliczeniowej Marra (1982). Równie ważne w percepcji jest to, że wymaga ono doznań zmysłowych w optymalnej dawce. Deprywacja sensoryczna, czyli znaczne obniżenie poziomu stymulacji senso rycznej, które występuje przy eliminacji bodźców wzrokowych, słuchowych i dotykowych, prowadzi z reguły do wystąpienia halucynacji i urojeń (Siegel, 1984). Nie odpowiadające rzeczywistości wrażenia (halucynacje) i myśli (urojenia) stają się dla systemu poznawczego niezbędną rekompensatą za braki w zakresie wejściowych danych sensorycznych. Szkodliwy jest również nadmiar stymulacji, jednakże w tym przypadku system poznawczy dysponuje mecha nizmem pozwalającym radzić sobie z przeciążeniem informacyjnym. Jest nim selektywna uwaga (Broadbent, 1958). Istotne dla spostrzegania jest także to, że percepcja to proces wymagający działania ze strony podmiotu. Niekiedy jest to działanie w sensie fizycznym, np. wtedy, gdy obserwując bodźce w polu wzro kowym zmieniamy własne położenie w stosunku do obiektu. Możliwość analizy bodźców z różnej perspektywy i dystansu pozwala wyeliminować wiele złudzeń optycznych, zatem spostrzeganie musi być przynajmniej częściowo czynnością motoryczną, co podkreśla w swej ekologicznej teorii Gibson (1966; zob. rozdz. 7.4.6). Aktywność podmiotu spostrzegającego może się jednak ograniczać do czynności umysłowych. W każdym razie tylko dzięki aktywności podmiotu możliwa jest właściwa interpretacja stymulacji. Widać to szczególnie wyraźnie na przykładzie bodźców zdegradowanych, czyli niepełnych, niekompletnych lub pojawiających się w nieoptymalnych warunkach czasowych lub przestrzennych. Bodźce zdegradowane nie pozwalają na pełną recepcję sensoryczną, przez co w ich przypadku udział „wyższych” procesów wnioskowania i interpretacji znacząco wzrasta.
7.1 .2 . Naiwne koncepcje spostrzegania Naiwne koncepcje percepcji, zwane też potocznymi, ignorują problem przekładu danych zmysłowych na dane umysłowe. Zgodnie z tymi koncepcjami rejestrator zmysłowy pełni funkcje przekaźnika informacji na drodze do kory mózgowej. Przekazywana informacja ma charakter zmysłowy - jest więc np. obrazem lub dźwiękiem i w taki sposób, przy wykorzystaniu właściwej modalności sen sorycznej, jest trwale kodowana. Potoczne koncepcje spostrzegania przyjmowa ły zatem dodatkowe założenie dotyczące natury trwałych reprezentacji umysło wych - według rozważanego stanowiska odzwierciedlenia te mają zawsze formę odzmysłową.
7.1. Podstawowe właściwości percepcji
281
U źródeł tak uproszczonego myślenia o procesie spostrzegania leżało przekonanie o słuszności metafory aparatu fotograficznego. Zwolennicy naiw nych koncepcji wskazywali na wiele strukturalnych i funkcjonalnych podo bieństw narządu wzroku do aparatu fotograficznego. I tak, strukturalnym odpo wiednikiem źrenicy wydaje się przesłona, soczewki - obiektyw, a siatkówki błona fotograficzna (film). Efekt rejestracji obrazu na siatkówce przypomina również wynik czynności robienia zdjęcia - w obu przypadkach otrzymujemy obraz odwrócony i pomniejszony. Wskazując na podobieństwa, często jednak zapominano, że oba sposoby rejestracji obrazu wyraźnie się różnią. Istotną strukturalną różnicą w budowie oka i aparatu fotograficznego wydaje się to, że błona fotograficzna jest płaska, a siatkówka wypukła. Zupełnie inaczej prze biega też w procesie spostrzegania i robienia zdjęcia detekcja koloru - komórki nerwowe odpowiedzialne za ten proces są rozmieszczone w oku w jednej warstwie, podczas gdy na błonie filmowej warstwy wrażliwe na poszczególne kolory są umieszczone jedna nad drugą. W oku nie ma także żadnej struktury analogicznej do migawki w aparacie fotograficznym. Co więcej, zanik obrazu na siatkówce jest związany ze stopniem złożoności obrazu i tempem pojawiania się kolejnych obrazów, a nie z ilością światła emitowanego lub odbijanego przez obiekt. Pominąwszy jednak różnice strukturalne i funkcjonalne pomiędzy na rządem wzroku i aparatem fotograficznym, rozstrzygającym argumentem na niekorzyść naiwnych teorii spostrzegania wydaje się fakt, iż trwałe reprezento wanie w umyśle informacji w postaci odzmysłowej byłoby bardzo nieekono miczne. Ten sam bodziec wzrokowy (np. twarz dziecka), podlegający przecież nieustannym zmianom (np. w wyniku rozwoju), musiałby być zapisywany w formie coraz to innego obrazu wraz z każdym pojedynczym spostrzeżeniem „obiektu”. Trudno wyobrazić sobie system przechowywania danych, który byłby zdolny poradzić sobie z takim przeładowaniem informacyjnym. Z powyższych powodów naiwne koncepcje spostrzegania zostały w zasadzie uznane za fałszywe, zaś współczesne teorie percepcji odwołują się w opisie i wyjaśnianiu tego procesu do koncepcji trwałych reprezentacji umysłowych (zob. rozdz. 3). Jedynym modelem procesu spostrzegania, który wyłamuje się z tego nurtu myślenia o percepcji, jest ekologiczna teoria Gibsona (1966). W swych założeniach zaprzecza ona istnieniu trwałych reprezentacji umysłowych, przez co odrzuca konieczność procesu translacji danych zmysłowych. 7.1.3. Spostrzeganie a rozpoznawanie wzorców Badania w zakresie rozpoznawania wzorców {pattern recognition) dotyczą tego, w jaki sposób ludzie identyfikują rzeczywiste obiekty w swoim środo wisku (Reed, 1988). Jak bardzo ważna jest to umiejętność, widać na przykła dzie czynności czytania pisma ręcznego (zob. rozdz. 7.5.2). Forma ręcznego pisania jest do tego stopnia indywidualną właściwością każdego człowieka, że może stać się jego wizytówką, która pomoże w rozpoznaniu danej osoby jako sprawcy jakiegoś wydarzenia. Międzyosobnicza zmienność w zakresie takiego wzorca (np. litery „a”) jest więc ogromna, a zmienność wewnątrzosobnicza również dość duża, bo pisząc stawiamy litery za każdym razem nieco inaczej.
282
Rozdział 7. Percepcja
Mimo to system percepcyjny człowieka potrafi właściwie rozpoznać konkretny symbol (np. „koślawe a” dziecka uczącego się dopiero pisać pierwsze litery) jako przedstawiciela danego wzorca (np. litery „a” jako takiej), niezależnie od cech charakterystycznych, przynależnych tylko konkretnej egzemplifikacji wzorca. W odpowiedzi na pytanie, w jaki sposób możliwy jest proces identyfikacji obiektów, sformułowano dwie teorie percepcji: koncepcję modeli (zob. rozdz. 7.4.3) oraz koncepcję cech (zob. rozdz. 7.4.4). Obie koncepcje w odmien ny sposób opisują proces kategoryzacji, czyli zaliczenia spostrzeganego obiektu do nadrzędnej kategorii umysłowej (por. rozdz. 3). Zgodnie z koncepcją modeli spostrzegany egzemplarz jest porównywany do modelu wzorca, który reprezentuje nadrzędną kategorię. Modelem może być specyficzny egzemplarz, czyli pierwszy napotkany przedstawiciel danego wzorca (np. własna matka może być modelową mamą) lub prototyp, czyli najczęstszy z dotychczas napotkanych egzemplarzy wzorca (np. wróbel może być modelowym ptakiem). Z kolei koncepcje cech sugerują, że decyzja o rozpoznaniu wzorca jest wyni kiem porównania cech kategoryzowanego obiektu i cech wzorcowych. Argu menty na rzecz obu koncepcji, bynajmniej nie rozstrzygające, stają się zrozumiałe, gdy rozważy się dokładniej przebieg procesu rozpoznawania twarzy (zob. rozdz. 7.5.1). Jednakże, niezależnie od słuszności jednej z dwóch koncepcji, zwraca uwa gę sposób wyjaśniania przez nie procesu spostrzegania jako procesu kategory zacji. Taką możliwość jako pierwszy zasugerował Bruner (1957), a empirycznie potwierdzili ją Posner i Mitchell (1967) w eksperymencie dotyczącym porów nywania liter. Badanym prezentowano pary liter, w stosunku do których trzeba było podjąć decyzję, czy są one identyczne czy różne, kierując się narzu conymi regułami. Wprowadzono trzy warunki eksperymentalne. W pierwszym litery uznawano za takie same, gdy były identyczne fizycznie (np. „AA”), w drugim - gdy były tożsame nominalnie (np. „Aa”), natomiast w trzecim gdy były identyczne zgodnie z abstrakcyjną regułą (np. „AE”). Warunek pierwszy wymagał tylko identyfikacji fizycznej - porównania z wzorcem (bez konieczności rozpoznania znaczenia), warunek drugi - identyfikacji fizycznej oraz ustalenia nominału bodźca (rozpoznania znaczenia litery), natomiast warunek trzeci - identyfikacji fizycznej, ustalenia nominału oraz sprawdzenia, czy spełniona jest dodatkowa reguła kategoryzacyjna. Manipulacja ekspery mentalna dotyczyła zatem liczby potencjalnych kategoryzacji, jakich trzeba byto dokonać w celu udzielenia poprawnej odpowiedzi na pytanie o tożsa mość prezentowanych bodźców. Posner i Mitchell ustalili, że czas reakcji w warunku pierwszym wynosi od 400 do 500 ms, w warunku drugim jest o średnio 80 ms dłuższy, a w warunku najtrudniejszym - aż o 160 ms dłuższy. Wyniki tego badania mogą sugerować, iż proces rozpoznawania bodźców jako reprezentujących określone wzorce polega na kategoryzacji, która trwa tym dłużej, im więcej kategorii system poznawczy musi sprawdzić w procesie spostrzegania. Dodatkowo można na podstawie tych badań wnosić, iż czas prostej kategoryzacji percepcyjnej trwa ok. 80 ms. Problem ten wymaga jednak dalszych badań.
7.2. Spostrzeganie jako proces oddolny
283
7.2. Spostrzeganie jako proces oddolny Spostrzeganie jest procesem oddolnym (bottom-up). Przebiega w kierunku od rejestracji wrażeń do identyfikacji obiektów. Na poszczególnych etapach tego procesu biorą udział różnorodne struktury poznawcze. Mechanizm orientacyjny uwagi selektywnej umożliwia uchwycenie przez receptory faktu wystąpienia bodźca w polu percepcyjnym. Za odbiór i kodowanie wrażeń zmysłowych odpowiedzialne są detektory cech (zob. rozdz. 5), a za krótkotrwałe przecho wywanie efektów recepcji bodźców - magazyny informacji sensorycznej (pamięć ultrakrótko trwała, zob. rozdz. 8). Identyfikacja spostrzeganych bodźców (np. piorun podczas burzy) odbywa się dzięki wiedzy zgromadzonej w zakresie pamięci trwałej (np. dotyczącej zjawisk atmosferycznych). Poszczególne subsystemy wchodzące w skład architektury umysłu włączają się w proces postrzegania kolejno, wraz ze wzrostem jego złożoności. Jednak właśnie wystąpienie bodźca dystalnego (np. piorunu podczas burzy) uruchamia cały mechanizm percepcji.
7.2.1. Odbiór i kodowanie wrażeń zmysłowych Pierwszy krok na drodze do powstania złożonego spostrzeżenia jest raczej oczywisty. Zadaniem receptorów jest pomiar natężenia danego bodźca dystal nego. W przypadku zmysłu wzroku fotoreceptory oka mają za zadanie zmierzenie intensywności światła emanującego od spostrzeganego obiektu lub przezeń odbitego (Sekuler, Blake, 1994). W ten sposób obiekt ten jest repre zentowany po raz pierwszy na peryferiach systemu poznawczego w formie mapy punktów świetlnych, różniących się swoją intensywnością. Oko wyposażone jest w dwa rodzaje fotoreceptorów; są to pręciki, odpowiadające za rejestrację słabych w swoim natężeniu bodźców świetlnych (widzenie nocne, czarno-białe), oraz czopki, funkcjonujące jedynie przy dobrym oświetleniu, odpowiadające za widzenie barw i ostrość wzroku (widzenie dzienne, pełna paleta barw). Infor macje zebrane przez fotoreceptory oka są przekazywane dalej do komórek dwu biegunowych, a następnie zwojowych, których zadaniem jest wstępne opraco wanie informacji sensorycznej. Komórki zwojowe są ściśle wyspecjalizowane. Barlow (1953) oraz Lettvin, Maturana, McCulloch i Pitts (1959) ustalili, że odrębne grupy tych komórek reagują na odmienne cechy wyzwalające, takie jak np. linie pionowe lub pozio me (krawędzie), ruch obiektu czy jego lokalizacja przestrzenna. Grupy komórek zwojowych odpowiedzialne za detekcję poszczególnych właściwości stymulacji nazwano detektorami cech. Im bardziej złożony system poznawczy, tym więcej w nim prostych detektorów cech, służących detekcji elementarnych właściwości bodźców. Wyniki badań Lettvina, Maturany, McCulloch i Pittsa (1959) przeanalizo wał Maruszewski (1996). Badacze ci wskazują na istnienie tylko czterech de tektorów cech u żaby, odpowiedzialnych za odbiór tylko dwóch właściwości stymulacji: wielkości i ruchu obiektu. Specyficzne kombinacje zarejestrowanych cech mają swoje konsekwencje w zachowaniu się żaby: „małe” i „szybkie”
284
Rozdział 7. Percepcja
obiekty wywołują u niej reakcje pokarmowe (np. widok poruszającego się żuka; Barlow, 1953), natomiast „duże” i „powolne” (np. bociany) - reakcje ucieczki. Liczba detektorów cech wizualnych u człowieka jest oczywiście znacznie więk sza; znajdują się one również poza siatkówką, na czuciowej drodze wstępującej do kory mózgowej (Marr, 1982). Detektory cech różnią się swoją złożonością strukturalną i funkcjonalną. Ich badaniem zajęli się m.in. Hubel i Wiesel (1959), którzy do swoich badań wybrali koty. Ustalili oni, że na drodze wzrokowej u kotów występuje aż sześć różnych rodzajów detektorów cech, z czego cztery ostatnie znajdują się już w korze wzrokowej. Z kolei Marr (1982), analizując strukturę i funkcjonowanie drogi wzrokowej u człowieka, wyróżnił jedynie trzy rodzaje różnych detektorów cech, stwierdzając że tylko u jednego rodzaju występują połączenia z komórkami kory mózgowej. Mimo sporów dotyczących liczby różnych detektorów cech, nie ma wątpliwości odnośnie do ich strukturalnego i funkcjonalnego zróżnicowa nia. Im dalej od narządu zmysłu i im bliżej kory mózgowej, tym bardziej są detektory cech strukturalnie złożone i tym bardziej złożone właściwości stymulacji są przez nie dekodowane. Ostatecznie pobudzenie napływa do kory wzrokowej, umiejscowionej w płatach potylicznych. Szczegółową analizę deko dowanych cech w ramach poszczególnych detektorów zawiera teoria oblicze niowa Marra (1982; zob. rozdz. 7.4.5). Z kolei odbiór i kodowanie wrażeń słuchowych odbywa się w komórkach włoskowych narządu Cortiego, zlokalizowanego w uchu wewnętrznym. Zada niem tych receptorów jest pomiar intensywności dźwięku docierającego do ucha zewnętrznego. Dźwięk ten jest wzmacniany przez narząd słuchu i przenoszony w formie rytmicznych drgań przez błonę bębenkową ucha. Jedna z kosteczek słuchowych (strzemiączko), wprawiona w ten sposób w drganie, przenosi rytm fali dźwiękowej poprzez wywieranie hydraulicznego ciśnienia na płyn znajdu jący się w ślimaku ucha wewnętrznego. To właśnie ciśnienie tego płynu wywołuje ugięcie komórek włoskowych, ich pobudzenie i w efekcie generowanie impulsu nerwowego przesyłanego do kory słuchowej. Poszczególne komórki receptoryczne zmysłu słuchu różnią się w zakresie częstotliwości dźwięku, na jaki reagują (Sekuler, Blake, 1994), co przekłada się na wielkość wytworzonego przez falę dźwiękową ciśnienia płynu w ślimaku ucha, koniecznego do ugięcia komórek włosowatych. Przekroczenie progu pobudzenia komórki włoskowej jest konieczne do rejestracji dźwięku, jednakże każdy receptor słuchowy działa tylko w pewnym zakresie częstotliwości. Jeśli intensywność dźwięku jest zbyt duża dla danej komórki włoskowej, osiąga ona stan nasycenia (saturation effect; Sekuler, Blake, 1994), który uniemożliwia wzbudzenie impulsu nerwowego. W takim przypadku reagują receptory słuchowe wyspecjalizowane w odbiorze dźwięku o wyższej częstotliwości, które z kolei nie są wzbudzane przez dźwięki o niższej częstotliwości, ponieważ takowe nie wywołują przekroczenia ich poziomu wzbudzenia. Impulsy nerwowe generowane przez komórki włoskowe informują system poznawczy o czasowej i częstotliwościowej charakterystyce słyszanych dźwięków. Interpretacja tak zakodowanych bodźców akustycznych odbywa się w korze słuchowej, znajdującej się w płatach skroniowych. Detektory cech tam zloka lizowane nie są już jednak zainteresowane wielkością natężenia czy częstotli-
7.2. Spostrzeganie jako proces oddolny
I ! j i | i | Ś | j
; !'
'
285
wością pojedynczego dźwięku. Są one wyspecjalizowane w reagowaniu na złożone zestawy dźwięków, definiowane przez specyficzne zmiany w zakresie fizycznej charakterystyki dźwięków składowych (Moore, 1987). Dzięki temu każde znane człowiekowi słowo posiada prawdopodobnie w korze słuchowej swój detektor, czyli uldad komórek interpretacyjnych wzbudzanych przez brzmienie słowa. Wskazują na to wyniki badań nad małpami, prowadzone przez Wollberga i Newmana (1972). Okazało się, że odrębne grupy neuronów kory słuchowej są odpowiedzialne za dekodowanie różnych rodzajów małpich komunikatów, takich jak rechotanie (cackle), piszczenie (shrieks) czy trelowanie (trills). Biorąc pod uwagę, że w relatywnie ubogim języku małp rodzaj komunikatu decyduje o sensie przekazu, można się spodziewać, że w przypadku człowieka wyspecjalizowanie detektorów bodźców akustycznych w korze słuchowej może dotyczyć pojedynczych morfemów, tj. elementarnych jednostek znaczeniowych (zob. rozdz. 13). Reagowanie przez komórki kory słuchowej na zmiany w zakresie wysokości tonu ma jeszcze jedną istotną funkcję - dzięki temu możliwa jest analiza intonacji, bez której rozumienie znaczenia dłuższych komunikatów werbalnych byłoby bardzo trudne, jeśli nie niemożliwe. Pewne komórki nerwowe kory słuchowej reagują na zmianę tonu dźwięku na wyższy (jak podczas wypowiadania pytającego słowa „Tak?”, gdy nic nie ro zumiemy), a inne na niższy (jak podczas ziewania, gdy jesteśmy znudzeni; Sekuler, Blake, 1994). Należy zatem stwierdzić, że odbiór i kodowanie wrażeń zmysłowych odby wa się za pomocą specyficznych układów komórek nerwowych, zwanych detektorami cech. Wstępujące drogi czuciowe są wyposażone w takie właśnie zestawy neuronów, różniące się zarówno strukturalnie, czyli poziomem złożoności i wielością połączeń nerwowych, jak i funkcjonalnie, czyli dostosowa niem do percepcji konkretnych właściwości podlegającej detekcji. Recepcja sensoryczna polega na kodowaniu fizycznych charakterystyk bodźca dystalnego, związanych z intensywnością jego oddziaływania na narząd zmysłu. Percepcja umysłowa polega natomiast na identyfikowaniu bodźca poprzez integrację informacji, dotyczących wszystkich jego właściwości. Proces ten zostanie opisany dokładniej w rozdz. 7.2.4.
7.2.2. Magazyny informacji sensorycznej Hipoteza istnienia magazynów informacji sensorycznej dotyczy przechowywa nia w ramach systemu poznawczego przez krótki czas, po bezpośrednim wystąpieniu bodźca sensorycznego, efektów jego działania. Dotyczy więc prze chowywania bodźców proksymalnych, zanim ulegną one procesowi dekodo wania przez bardziej złożone dekodery cech występujących w drodze czuciowej. Do tej pory potwierdzono istnienie dwóch magazynów informacji sensorycznej: magazynu ikonicznego dla zmysłu wzroku i magazynu echoicznego dla zmysłu słuchu. Wprawdzie Baddeley (1976) postuluje istnienie aż pięciu magazynów sensorycznych - tylu, ile różnych zmysłów występuje u człowieka - jednak hipoteza ta nie doczekała się do tej pory weryfikacji. Ponieważ magazyny informacji sensorycznej są tożsame z subsystemami pamięci ultrakrótkiej, dokładnie omówionymi w rozdz. 8, w tym miejscu będą
286
Rozdział 7. Percepcja
przedstawione jedynie te ich właściwości, które wydają się najważniejsze dla analizy procesu spostrzegania. Sperling (1960, 1963) prezentował badanym za pomocą tachistoskopu przez 50 ms tabelę zawierającą 12 bodźców (liter lub cyfr), ułożonych w 4 ko lumny po 3 rzędy pól. Zadaniem osób biorących udział w eksperymencie było przypomnienie sobie tuż po prezentacji jak największej liczby elementów z prezentowanej tabeli. Uczestnicy badania byli w stanie przypomnieć sobie prawidłowo 4-5 znaków (ok. 35% znaków w ogóle, czyli 1-2 z każdego rzędu). W kolejnym eksperymencie Sperling wprowadził dodatkową manipulację wska zówką - niemal natychmiast po prezentacji tachistoskopowej prezentował oso bom badanym dźwięk o wysokiej, średniej lub niskiej tonacji, określający rząd tabeli, z którego należało sobie przypomnieć uprzednio prezentowane bodźce. Poziom poprawności przypominania wzrósł u badanych dwukrotnie - tym razem byli oni w stanie przypomnieć sobie poprawnie ok. 70% (2-3) znaków ze wskazanego rzędu. W następnym badaniu Sperling manipulował czasem prezentacji wskazówki w przedziale od 0 do 1000 ms od momentu zakończenia prezentacji tachistoskopowej. Poprawność przypominania okazała się malejącą funkcją czasu opóźnienia wskazówki, przy czym wpływ wskazówki okazał się całkowicie zredukowany w przypadku przerwy trwającej 500 ms lub dłużej. Dodatkowo, w kolejnych badaniach z użyciem tej samej procedury ekspe rymentalnej stwierdzono, że jeśli pole ekspozycji zostanie tuż po zniknięciu bodźców rozjaśnione, to przechowywanie informacji w magazynie ikonicznym będzie utrudnione. Odwrotny wynik zaobserwowano, gdy pole ekspozycji zostało zaciemnione. W takich warunkach percepcyjnych wskazówka pomagała również po upływie 500 ms (nawet do 1000 ms). Z kolei, gdy bezpośrednio po prezentacji bodźców przedstawiony został w polu widzenia złożony układ innych sygnałów (np. konkurencyjna tabela innych bodźców), to możliwość prawidłowego przypomnienia sobie uprzednio prezentowanych bodźców oscylowała wokół poziomu przypadku. Kiedy natomiast zestaw bodźców składał się w połowie zarówno z liter, jak i z cyfr, wskazówka, dotycząca rodzaju bodź ców (liter lub cyfr), które należy sobie przypomnieć, nie miała żadnego zna czenia dla poprawności wykonania zadania. Uzyskane przez Sperlinga wyniki doprowadziły do sformułowania pod stawowej charakterystyki magazynu ikonicznego. Czas przechowywania infor macji w tym magazynie okazał się relatywnie krótki. W sprzyjających warunkach percepcyjnych, gdy do magazynu ikonicznego nie wchodzą żadne inne bodźce wzrokowe, czas ten może się wydłużyć nawet do 1000 ms, ale z reguły jest znacznie krótszy, przeciętnie oscyluje wokół 500 ms. Ze względu na to, że oko ludzkie dokonuje w ciągu sekundy czterech fiksacji na materiale bodźcowym (Rayner, 1997), a więc czterokrotnie ma okazję do rejestracji nowego układu bodźców, w naturalnych warunkach spostrzegania obiektów w polu wzroko wym czas przechowywania efektów rejestracji bodźców w magazynie ikonicz nym nie powinien przekraczać 250 ms. W istocie jednak czas ten jest znacznie krótszy i wynosi tylko około 100 ms, gdyż pobieranie informacji z pola wzro kowego nie może się dokonywać przez cały czas fiksacji oka w danym punkcie pola wzrokowego (zob. rozdz. 7.5.2). Po upływie 100 ms informacje albo są przetwarzane dalej przez bardziej złożone detektory cech, albo ulegają wyparciu przez nowe dane.
7.2. Spostrzeganie jako proces oddolny
' ; j |
|
S
; i ' ;
| \ j | [ i
287
Z analizy wyników badań przeprowadzonych przez Sperlinga wynika również, że pojemność magazynu ikonicznego jest zmienna w czasie. Począt kowo rejestrowany jest niemal pełny materiał bodźcowy znajdujący się w zasięgu narządu wzroku. Sensoryczny kod zapisu informacji w tym magazynie uniemożliwia jednak jakiekolwiek opracowanie przechowywanych informacji, co zwiększyłoby szansę ich przetrwania. Ograniczenie pojemności kanału przetwarzania danych ze względu na ich bardziej złożone właściwości sprawia, iż do dalszej obróbki trafia tylko 1/3 z zarejestrowanej początkowo stymulacji. Nie ma natomiast wątpliwości, iż sposób kodowania informacji w ramach magazynu ikonicznego jest ściśle sensoryczny, związany z fizyczną charakterys tyką sygnału, jaka może być zdekodowana przez najprostsze detektory cech, znajdujące się jeszcze w komórkach zwojowych. Wskazówki, dotyczące fizycznej charakterystyki sygnału (lokalizacji czy też wielkości bodźców), są jedynymi, które mogą pomóc w lepszym odtworzeniu informacji zgromadzonych w tym magazynie. Badania nad funkcjonowaniem magazynu echoicznego, tj. badania w zakre sie gromadzenia i krótkotrwałego przechowywania bodźców słuchowych, realizowane przez Crowdera i współpracowników (Crowder, Morton, 1969; Darwin, Turvey, Crowder, 1972), prowadzono w podobnym paradygmacie jak eksperymenty nad funkcjonowaniem magazynu ikonicznego. Prezentowano w nich symultanicznie serie dźwięków z różnych lokalizacji przestrzennych, a następnie proszono osoby uczestniczące w badaniach o przypomnienie sobie dźwięków pochodzących z wybranego źródła, sygnalizowanego przez wskazówkę wizualną. Okazało się, że badani są w stanie przypomnieć sobie zaledwie jeden, ostatni dźwięk z wybranego źródła, niezależnie od jego lokalizacji. Z kolei Glucksberg i Cowan (1970), prowadząc badania w paradygmacie podążania (zob. rozdz. 5.2.1), zaobserwowali, że gdy w komunikacie ignoro wanym pojawiały się słowa oznaczające cyfry, to osoby badane nie były w stanie odpowiedzieć na pytanie: „jaka to cyfra?”, jeżeli przerywano im reprodukcję komunikatu ważnego w czasie dłuższym niż 4 s od momentu prezentacji cyfry. Jeśli jednak zatrzymanie czynności powtarzania ważnego komunikatu następo wało w czasie do 4 s od pojawienia się cyfry w kanale ignorowanym, uczestnicy eksperymentu prawidłowo przypominali sobie bodziec uprzednio zgodnie z instrukcją przez nich ignorowany. Wyniki te świadczą na korzyść tezy, że chociaż pojemność magazynu echoicznego jest znacznie mniejsza niż pojemność magazynu ikonicznego, to jednak magazyn echoiczny ma tę właściwość, że dłużej przechowuje informację. Powyższe spostrzeżenia na temat pojemności i czasu przechowywania informacji w magazynie ikonicznym i echoicznym korespondują z tym, co wiadomo na temat przetwarzania nietrwałych reprezentacji umysłowych (zob. rozdz. 2). System obrazowy jest holistyczny i umożliwia równoległe przetwarzanie większej ilości danych w tym samym czasie. System werbalny jest parcjalny i wymaga szeregowego przetwarzania kolejnych bodźców słuchowych, Nie ma natomiast różnic między dwoma magazynami informacji sensorycznej w zakresie sposobu kodowania wrażeń zmysłowych. Kodowanie to ma charakter ściśle sensoryczny i jest związane z detekcją jedynie fizycznej charakterystyki prezentowanych bodźców.
288
Rozdział 7. Percepcja
7.2.3. Spostrzeganie głębi Obraz obiektu zarejestrowany na siatkówce jest dwuwymiarowy, podczas gdy jego spostrzeżenie jest trójwymiarowe. Staje się to możliwe dzięki per cepcji głębi, a więc możliwości spostrzegania absolutnego dystansu (absolute distance), jaki dzieli obserwatora od obiektu oraz względnego dystansu (relative distance), dzielącego poszczególne obiekty w polu wzrokowym od siebie (Sekuler, Blake, 1994). Spostrzeganie głębi (depth perception) jest niezwykle istotnym elementem poznawczego wyposażenia człowieka, nie tylko dlatego, że pozwala mu orientować się i skutecznie działać w trójwymiarowej prze strzeni, ale również z tego powodu, że bez niej nie byłoby możliwe wyodręb nienie przedmiotu z tła. Zdolność do percepcji głębi zapewnia nam to, że rzeczywistość składa się dla nas z poznawczo odrębnych, samoistnych przed miotów i innych obiektów fizycznych, a nie ze zwykłej mozaiki wrażeń wzro kowych. Z kolei bez zdolności do percepcji przedmiotów prawdopodobnie nie byłoby myślenia pojęciowego, czyli jednego z najważniejszych procesów po znawczych człowieka (Lorenz, 1977). Samoistnie przedmioty mogą być bowiem grupowane według różnych kryteriów i cech, co daje podstawę do kategoryzo wania, a następnie do przypisania kategoriom nazw. Tak więc spostrzeganie głębi warunkuje percepcję przedmiotów, a percepcja przedmiotów jest warun kiem kategoryzowania i myślenia pojęciowego. Biorąc pod uwagę znaczenie tej zdolności poznawczej, nie powinno nas dziwić, że w procesie ewolucji wykształciły się liczne i różnorodne mechanizmy fizjologiczne i psychologiczne, dzięki którym - mimo dwuwymiarowej siatkówki oka - widzimy świat w trzech wymiarach, łącznie z głębią. Szacowanie przez system poznawczy odległości w polu wzrokowym jest możliwe dzięki wykorzystywaniu dwóch rodzajów wskazówek. Przede wszyst kim wykorzystuje się wskazówki okulomotoryczne, wynikające ze zmiany poło żenia obserwatora względem obiektu lub różnych obiektów względem siebie. Śledząc zmiany lokalizacji obiektu w polu wzrokowym podczas kolejnych fiksacji oka, narząd wzroku dokonuje akomodacji soczewki, pełniącej w oku funkcję obiektywu. Bliżej zlokalizowane przedmioty wymagają większej akcji mięśni, regulujących kształt soczewki i odpowiadających za jej ogniskową, podczas gdy obiekty dalekiego planu wymagają mniejszego wysiłku przystoso wawczego. Można to łatwo sprawdzić zbliżając do nosa z dalszej odległości palec - wysiłek mięśni soczewki, próbujących utrzymać ostrość obrazu pomimo niewielkiego dystansu absolutnego stanie się wtedy łatwo odczuwalny. Informacja o tym, ile wysiłku zużywają mięśnie, regulujące kształt soczewki, jest użyteczną i prostą wskazówką dla systemu nerwowego odnośnie do abso lutnego dystansu obiektu w polu wzrokowym, jednak użyteczność tej wska zówki jest ograniczona przez wielkość dystansu. Wskazówka ta działa najlepiej w przypadku obiektów zlokalizowanych w promieniu do kilku metrów od obserwatora, podczas gdy przy większych odległościach staje się nieprecyzyjna (Sekuler, Blake, 1994). Wtedy system poznawczy korzysta z innej wskazówki okulomotorycznej - jest nią siła sygnału przesyłanego nerwowymi drogami zstępującymi z centrum kontroli motorycznej w mózgu do mięśni, regulujących kształt soczewki. Jest to sygnał wymuszający przystosowanie się do ostrego widzenia obiektów oddalonych.
7.2. Spostrzeganie jak o proces oddolny
289
Ponadto, w percepcji głębi działają również wskazówki wizualne, które są dostępne niezależnie od ruchu obiektu w polu wzrokowym lub ruchu samego obserwatora. Znane są dwa rodzaje takich wskazówek: (1) monokularne, wymagające użycia tylko jednego oka, oraz (2) binokularne, korzystające z in formacji zgromadzonych przez parę oczu. Korzystanie z tych drugich jest częstsze i. łatwiejsze, ale istnienia tych pierwszych nie da się podważyć, ponieważ percepcja głębi jest przecież możliwa z użyciem tylko jednego oka (Eysenck, Keane, 1990). Wśród wskazówek jednoocznych można wyróżnić siedem podstawowych informacji, którymi kieruje się system poznawczy w ocenie głębi pola percepcyjnego. Pierwszą z nich jest wskazówka określana jako perspektywa liniowa. W oddalającej się perspektywie równoległe pobocza drogi biegnącej prostopadle do obserwatora coraz bardziej zbliżają się do siebie, zbiegając się w końcu w jedną linię. Równoległe krawędzie pozostają więc w coraz mniejszej odległości od siebie wraz ze wzrostem absolutnego dystansu. Ocena odległości może wynikać również z oszacowania wielkości cienia, rzucanego przez obiekt (druga wskazówka), jednak kierowanie się tym kryterium ma sens jedynie wówczas, gdy wszystkie obiekty w polu wzrokowym są jednolicie oświetlone. Zazwyczaj tak właśnie jest na otwartych przestrzeniach, stąd w procesie percepcji system poznawczy przyjmuje założenie owej jednolitości. W takich warunkach oświetlona jest zawsze góra obiektu, jeśli receptory wzrokowe znajdują się w normalnej pozycji percepcyjnej, charakterystycznej dlawyprostowanej postawy ciała (Horward, Bergstróm, Masao, 1990). Inaczej bywa, gdy iluminacja obiektów pochodzi z różnych źródeł i cienie rzucane przez obiekty w polu wzrokowym nakładają się na siebie. Wówczas wzrok, kierując się wskazówką wielkości cienia, ulega najprzeróżniejszym złudzeniom optycznym - np. trójwymiarowości przy dwuwymiarowych obrazach (Ramachandran, 1988). Bardzo użyteczne informacje wynikają z oceny kontrastu (wskazówka trzecia). Światło odbite od spostrzeganych obiektów musi się przebić do fotoreceptorów przez zanieczyszczoną z reguły atmosferę. W konsekwencji obiek ty dalsze wydają się mniej kontrastowe, a bliższe - bardziej wyraźne i odróż niające się od siebie. Czwarta wskazówka obejmuje szczegóły powierzchni, czyli charakterystyczne zmiany faktury przedmiotu. Szczegóły są lepiej widoczne z bliższej odległości niż dalszej. Łatwo to sprawdzić przyglądając się np. krawężnikowi drogi: stojąc na początku drogi, w bliskiej odległości od punktu obserwacji, jesteśmy w stanie rozpoznać rodzaj krawężnika, jednak z dalszego dystansu widzimy już tylko liniowe ograniczenie drogi. Ocena dystansu odbywa się również za pomocą porównania względnej pozycji obiektów w polu wzrokowym (wskazówka piąta), zgodnie z założeniem, że obiekty bliższe prze słaniają części obiektów dalszych. Trzeba tu jednak zwrócić uwagę na pewne niebezpieczeństwo kierowania się tą wskazówką, można bowiem ulec tzw. złudzeniu Kanizsy (1976). Gaetano Kanizsa przeprowadził eksperyment, w którym pokazywał osobom badanym 3 czarne koła ułożone w 3 rogach białej planszy. Każde koło zostało pozbawione pewnej części - tej, która była najbliższa środka planszy. W rezultacie powstało percepcyjne złudzenie białego trójkąta na pierwszym planie, który swoimi wierzchołkami jak gdyby przysłania 3 czarne koła na drugim planie (ryc. 7.1).
290
Rozdział 7. Percepcja
* ^
V
^
Ryc. 7.1. Złudzenie Kanizsy.
W ocenie dystansu może nam też pomóc wskazówka szósta - znajomość wielkości obiektu. Wiedząc, jaka jest prawdziwa wielkość obiektu, możemy skorygować ocenę jego odległości. Na przykład samochód pozornie równy pod względem wielkości pudełku od zapałek ocenimy po prostu jako samochód odległy, bo wiemy, jakie są mniej więcej jego prawdziwe rozmiary. Zagadnie niem tym zajmował się Itellson (1951), który prezentował uczestnikom swojego badania znany im przedmiot zawsze z tej samej odległości. Manipulował natomiast wielkością prezentowanego obiektu, pokazując go osobom badanym w jego naturalnej wielkości, albo w dwukrotnym powiększeniu lub pomniejsze niu. Okazało się, że uczestnicy eksperymentu poprawnie oceniali odległość w odniesieniu do obiektów naturalnej wielkości. Mając do czynienia z obiektami dwukrotnie zmniejszonymi, badani przeszacowywali dystans, a gdy obiekt zo stał dwukrotnie zwiększony, wykazywali tendencję do niedoszacowania odległości. Co więcej, w przypadku obiektów zmniejszonych odległość była przeceniona mniej więcej dwukrotnie, a jeśli chodzi o obiekty zwiększone nie doszacowanie wyniosło tylko ok. 10%. Sześć wyżej omówionych wskazówek ma charakter statyczny (Sekuler, Blake, 1994; Eysenck, Keane, 1995). Wśród jednoocznych wskazówek wyróżnia się także siódmą, dodatkową wskazówkę, związaną z ruchem obiektów w polu wzrokowym. Jeśli dwa obiekty, bliższy i dalszy, wskazane obserwatorowi, po ruszają się w polu wzrokowym z tą samą prędkością, to obiekt dalszy pokonuje pozornie krótszą drogę. Na podstawie oceny paralaksy ruchowej, tj. przebytego dystansu, system poznawczy może wnioskować, który obiekt znajduje się bliżej, a który dalej. Podobnie rzecz się ma w przypadku, gdy porusza się obserwator, a obiekty w polu wzrokowym są statyczne. Jeśli chodzi o wskazówki dwuoczne, wyróżnia się dwie, z których jedna, konwergencja dwuoczna, działa podobnie jak wskazówka okulomotoryczna, bo wykorzystuje informację o napięciu mięśni sterujących ruchem gałek ocznych. Skupienie wzroku na obiekcie bliskim wymaga bardziej rozwartego kąta widzenia, podczas gdy przedmioty odległe wymagają kąta bardziej ostrego (ryc. 7.2). Mięśnie sterujące gałką oczną muszą wykonać odpowiednią pracę, która jest znacznie bardziej intensywna w przypadku obiektów bliskich. Na pięcie mięśni sterujących ruchem gałek ocznych i odpowiedzialnych za ich konwergencję jest informacją, na podstawie której mózg oblicza odległość obiektu. Druga wskazówka wiąże się z faktem, że każde z dwojga oczu odbiera
7.2. Spostrzeganie jako proces oddolny
291
Ryc. 7.2. Fizjologiczny mechanizm widzenia stereooptycznego. Jeśli obiekt jest odległy, gałki oczne muszą się na nim skupić pod mniejszym, bardziej ostrym kątem a, podczas gdy w przypadku obiektu odległego gałki skupiają się pod bardziej rozwartym kątem p (góra ryc.). Ponadto każda gałka oczna „widzi” obiekt nieco inaczej, ale w przypadku obiektu odległego ta różnica jest mniejsza (dół ryc.). Mózg ocenia odległość obiektu biorąc pod uwagę zarówno kąt konwergencji gałek ocznych, jak też rozbieżność informacji docierającej do każdej z gałek. i
| | [ [ [ [ ś
nieco inną informację o spostrzeganym obiekcie. Ze względu na swoją lokalizację (umieszczenie obok siebie w odległości przeciętnie 65 mm), każde z oczu obserwuje pole wzrokowe z nieco innej pozycji, a więc pod innym kątem. W konsekwencji ten sam obiekt jest widziany inaczej przez prawe i lewe oko, chociaż w procesie identyfikacji obiektu system poznawczy różnicę tę zaniedbuje. Wykorzystuje ją natomiast w procesie percepcji głębi - wielkość tej różnicy przekłada się bowiem na ocenę względnego dystansu pomiędzy obiektami w polu wzrokowym. Im bliżej siebie znajdują się spostrzegane obiekty, tym większe jest
292
Rozdział 7. Percepcja
zróżnicowanie w zakresie obrazu pomiędzy lewym a prawym okiem; im dalej są położone, tym różnice te są mniejsze. Zdolność do oszacowania względnego dystansu obiektów znajdujących się obok siebie w polu wzrokowym, nazwano widzeniem stereooptycznym (stereopsis; Sekuler, Blake, 1994).
7.2.4. Identyfikacja obiektu Proces identyfikacji obiektu składa się z kilku faz. Humphreys i Bruce (1989) sugerują, że odbywa się on w sposób szeregowy, a kolejne fazy nie mogą się rozpocząć bez ukończenia wcześniejszych stadiów. Proponowany przez Humphreysa i Bruce model spostrzegania jest więc skonstruowany zgodnie z założeniami klasycznych modeli blokowych (zob. rozdz. 1). Pierwsza faza identyfikacji obiektu to faza recepcji danych zmysłowych. Te wczesne procesy spostrzegania prowadzą do reprezentacji obiektu w systemie poznawczym w for mie zależnej od punktu obserwacji. Utworzenie takiego odzwierciedlenia sty mulacji kończy fazę drugą omawianego procesu. W fazie trzeciej następuje klasyfikacja percepcyjna obiektu - jego struktura (dane zmysłowe) jest porów nywana ze zgromadzonymi w ramach systemu wiedzy strukturami znanych obiektów (dane umysłowe). Klasyfikacja percepcyjna poprzedza więc klasyfika cję semantyczną, w trakcie której przywołane zostają dane dotyczące funkcji pełnionych przez obiekt oraz dane innych obiektów blisko z nim związanych. Wreszcie w ostatniej fazie następuje klasyfikacja leksykalna, w trakcie której obiektowi przypisywana jest skojarzona z nim etykieta werbalna. Odrębność faz klasyfikacji percepcyjnej i semantycznej potwierdzili Humphreys i Riddoch (1987). Badany przez nich pacjent HJA wykazywał deficyty w rozpoznawaniu struktury percepcyjnej obiektów: czynność ta zajmowała mu nawet do 30 s w przypadku prostych obiektów; nie mógł od różnić rysunków obiektów rzeczywistych od nierzeczywistych, ale złożonych z rzeczywistych części. Nie miał jednak żadnych problemów z klasyfikacją semantyczną przedmiotu już poprawnie zidentyfikowanego. Z kolei pacjent JB stosunkowo poprawnie klasyfikował percepcyjnie i leksykalnie pokazywane mu obiekty. Miał jednak problemy z zapamiętywaniem i przypominaniem sobie funkcji, jakie pełnią obiekty już przez niego nazwane. Silveri i Gainotti (1988) wykazali jednak, że faza klasyfikacji leksykalnej zależy od przebiegu poprzednich faz procesu identyfikacji obiektów. Nie można więc mówić o całkowitej niezależności wskazywanych przez Humphreysa i Bruce faz identyfikacji obiektu. Przypisanie etykiety werbalnej na podstawie definicji percepcyjnej (struktura i wygląd obiektu) okazało się w ich badaniu znacznie mniej efektywne niż nadanie nazwy obiektowi, którego definicja se mantyczna (funkcje i znaczenie obiektu) jest znana. Inni badacze, Howard i Orchard-Lisle (1984), pokazali ponadto, że w przypadku pacjentki JCU, mającej kłopoty z klasyfikacją leksykalną, dodatkowa wskazówka w postaci pierwszego fonemu poprawnej nazwy pomagała w nadaniu etykiety werbalnej, a wskazówka w postaci fonemu obiektu semantycznie związanego z aktualnie nazywanym - wręcz przeszkadzała. Wyniki te wskazują, z jednej strony, na relatywną odrębność poszczególnych faz identyfikacji obiektu (upośledzenie
7.2. Spostrzeganie jako proces oddolny
:
I : ;
*
:
1 ;
I
293
jednej raczej nie przekłada się na deficyty w innej), a z drugiej - na ich sztywne następstwo czasowe konieczne dla efektywności procesu identyfikacji. Badacze procesu spostrzegania, analizując proces identyfikacji obiektu, skupili się raczej na fazie identyfikacji percepcyjnej. Na przykład Marr i współ pracownicy (Marr, 1982; Marr, Nishihara, 1978) skoncentrowali się na badaniu procesu tworzenia reprezentacji obrazowej obiektów w umyśle przez detekcję określonych cech strukturalnych tych obiektów. Klasyfikacji semantycznej na najwyższym poziomie rozpoznawania obiektów badacze ci poświęcili relatywnie niewiele miejsca (zob. opis teorii obliczeniowej w rozdz. 7.4.5). Podobnie Irving Biederman (1987) w swojej teorii identyfikacji obiektów poprzez detekcję ich geometrycznych komponentów strukturalnych, zwanych geonami (geons; tj. geometrical ions), bardziej zwraca uwagę na proces konstrukcji reprezentacji percepcyjnej niż semantycznej, czy też leksykalnej. Zgodnie z jego koncepcją, 36 różnych kształtów geometrycznych, takich jak np. bloki, walce, sfery, łuki czy ostrosłupy, zupełnie wystarczy do opisania zróżnicowania w zakresie wszyst kich obiektów rzeczywistych (ryc. 7.3). Podobnie zresztą tylko 44 fonemy, istniejące w języku angielskim, wystarczają do stworzenia reprezentacji lek sykalnej wszystkich znanych słów w tym języku (Eysenck, Keane, 1990). Według Biedermana system poznawczy dysponuje subsystemami, umożliwiają cymi rozpoznanie tych kształtów dzięki zbieraniu informacji dotyczących rejestrowanych w polu wzrokowym linii, krawędzi i kątów, przy czym analizie podlegają cechy równoległości i symetrii. W ten sposób detekcja kubka wymaga rozpoznania dwóch komponent strukturalnych: cylindra (na ciecz) i łuku (ucho do trzymania). Rozpoznane komponenty są następnie zestawiane z trwałymi reprezentacjami umysłowymi w celu identyfikacji postrzeganego obiektu. Klasyfikacja percepcyjna jest rozstrzygana na rzecz takiej reprezentacji, do której komponenty strukturalne są najlepiej dopasowane. Biederman i współpracownicy (Biederman, Ju, Clapper, 1985; Biederman, Beiring, Blickle, 1985) potwierdzili słuszność koncepcji rozpoznawania obiektów dzięki detekcji komponentów strukturalnych. W pierwszym badaniu udało im się wykazać, że niekompletność komponentów nie jest przeszkodą w identyfikacji obiektu, bowiem nadal - w celu rozpożnania prezentowanego przedmiotu - system poznawczy dobiera taką reprezentację, która najlepiej pasuje do obrazu percepcyjnego. W ten sposób pozbawienie 9-komponentowego obiektu nawet czterech elementów strukturalnych nie wyklucza jeszcze poprawnej identyfikacji. W następnym eksperymencie Biederman i współpracownicy pokazywali osobom badanym trzy rodzaje obiektów wizualnych: kompletne, niekompletne, tj. pozbawione jakiegoś komponentu (np. stół pozbawiony jednej nogi), oraz zniekształcone, tj. utworzone z komponentów kompletnych, ale zdegradowanych (np. stół z blatem i wszystkimi nogami narysowany przerywaną kreską). Obiekty były prezentowane krótko (100 ms), albo długo (200 ms). Oczywiście najlepiej identyfikowane były obiekty kompletne. W przypadku krótkiej prezentacji badani poprawniej identyfikowali obiekty pozbawione jakiegoś komponentu niż obiekty kompletne, ale znie kształcone przez niewyraźną formę prezentacji. W przypadku dłuższej prezenta cji wzorzec wyników ulegał odwróceniu - uczestnicy badania lepiej identyfikowali obiekty zdegradowane, choć kompletne pod względem tworzących je geonów. Interpretując uzyskane wyniki, Biederman ustalił, że krótka prezenta-
294
Rozdział 7. Percepcja
cP (p o 0
+ +
+ +
+
+ +
+ +
+
+
—
+
+ +
+
—
+ +
—
-+
+
+
+
Ryc. 7.3. Geony i obiekty z nich utworzone Na górnej części ryc. widzimy sześć geonów, różniących się pod względem czterech kryteriów: krzywizny krawędzi, symetrii, stałości kształtu na całej długości oraz krzywizny głównej osi. Na przykład pierwszy geon („cegła”) charakteryzuje się brakiem krzywizny krawędzi, symetrią, stałym kształtem na całej długości oraz brakiem krzywizny (za: Biederman, 1987). Na dolnej części ryc. pokazano cztery przykładowe obiekty utworzone z geonów.
7.3. Spostrzeganie jako proces odgórny
295
cja mało wyrazistych percepcyjnie bodźców uniemożliwia detekcję komponen tów strukturalnych - dlatego w tym warunku percepcyjnym lepiej dla rozpoznawanego obiektu jest, aby przynajmniej kilka komponentów było wy raźnych, a braki w zakresie pozostałych zostają pominięte w procesie dostosowania reprezentacji wizualnej do umysłowej. Długa prezentacja pozwala z kolei na odgórne uzupełnienie brakujących części wszystkich elementów strukturalnych rozpoznawanych obiektów i wówczas identyfikacja staje się możliwa dzięki korekcie geometrycznych komponentów strukturalnych.
j 7.3. Spostrzeganie jako proces odgórny i Nie lekceważąc roli procesów oddolnych, trzeba stwierdzić, że spostrzeganie j jest również procesem odgórnym (top-down). Identyfikacja obiektów w polu I percepcyjnym jest możliwa dzięki temu, że reprezentację percepcyjną kon frontuje się z danymi umysłowymi. To one gwarantują z jednej strony stałość spostrzegania (twarz mimo zmian rozwojowych pozostaje twarzą przynależną tej samej osobie), choć z drugiej strony są przyczyną powstawania różnorod nych błędów i złudzeń percepcyjnych. Dowody na odgórny charakter percepcji znajdziemy w czterech grupach badań: nad (1) stałością spostrzegania; (2) [• wpływem nastawienia na spostrzeganie; (3) złudzeniami i błędami w spostrze ganiu, a także nad (4) wpływem kontekstu na spostrzeganie. Wiele badań tego rodzaju wywodzi się z teorii postaci (Gestalt, zob. rozdz. 7.4.2). Inne zapocząt kowano w nurcie badawczym nazwanym „nowym spojrzeniem” na spostrzega nie (New Look), zapoczątkowanym pod koniec lat 40. XX w. przez Jerome’a Brunera (Bruner, Goodman, 1947; Bruner, Postman, 1947). Badania prowa dzone w tym nurcie akcentowały wpływ oczekiwań i nastawienia na proces spostrzegania, a ponadto widziały percepcję w szerszym kontekście badań nad osobowością, motywacją i czynnikami społecznymi. 7.3.1. Stałość spostrzegania Stałość percepcyjna ma miejsce wtedy, gdy spostrzeżenie jakiegoś obiektu nie zmienia się, mimo zmiany warunków, np. oświetlenia lub odległości, co prowadzi do zmian w zakresie bodźca dystalnego, a w konsekwencji do zmian w zakresie bodźców proksymalnych i rejestrowanych wrażeń. Doświadczenie zgromadzone w formie trwałych reprezentacji umysłowych pozwala systemowi poznawczemu na konstatację, że ten sam obiekt nie może zmieniać swojej fizycznej charak terystyki wraz ze zmianą perspektywy, warunków oświetlenia lub kontekstu. Wykrywanie stałości percepcyjnych pozwala na „korygowanie” obrazu na siatkówce (Gibson, 1966). W efekcie spostrzegamy coś, czego nie widzą nasze zmysły, a co podpowiada nam nasza wiedza o świecie rzeczywistym. Wyróżnia się kilka podstawowych stałości percepcyjnych. Stałość wielkości polega na tym, że ten sam obiekt reprezentuje zawsze tę samą wielkość niezależnie od absolutnego dystansu pomiędzy obserwatorem a spostrzeganym obiektem. Jego obraz na siatkówce jest tym bardziej pomniejszony, im dalej
296
Rozdział 7. Percepcja
znajdują się względem siebie obserwator i obiekt, jednak wrażenie to pozostaje bez wpływu na doświadczaną w spostrzeżeniu właściwość wielkości obserwo wanego obiektu. Zjawisko stałości wielkości umożliwia więc korektę wrażenia wynikającego z oszacowania dystansu absolutnego. Uczestnicy eksperymentu Itellsona (1951; zob. rozdz. 7.2.3), nieświadomi manipulacji wielkością obiek tów, błędnie oceniali stały dystans pomiędzy prezentowanym im znanym bodźcem a ich punktem obserwacji. Bodziec ten w przekonaniu osób badanych miał stałą wielkość, skoro więc odczuwali oni wrażenie jego zmieniającej się wielkości, to zmianie musiała ulec ocena odległości obserwatora od obiektu. Takich też oszacowań dokonywali uczestnicy eksperymentu Itellsona. Z kolei stałość kształtu pozwala na korektę wrażeń związanych z dystansem względnym. Jak się powszechnie sądzi, obserwowanie figur geometrycznych pod różnym kątem prowadzi często do początkowo błędnego wnioskowania o ich kształcie: okna zamiast prostokątnych wydają się trapezowate, a ściany budyn ków zdają się być najwyższe w punkcie obserwacji. Zmiana punktu obserwacji i wykorzystanie przez umysł zasady stałości kształtu pozwala na korektę tych błędnych wrażeń w spostrzeżeniu. Podobnie, stałość jasności i barwy wynika z odzwierciedlonych w ramach trwałych reprezentacji umysłowych właściwości wizualnych konkretnych obiektów. Wychodząc w zimie nocą na spacer, cieszymy się, że na ziemi leży biały śnieg, który być może rozjaśni nam ciem ności, mimo że z braku słońca nie odbija on niemal żadnego światła. Śnieg jest w takich warunkach percepcji co najwyżej szary, ale i tak widzimy go jako biały, bo wiemy, że taki jest ze swej natury. Na tej samej zasadzie krew widzimy raczej w kolorze czerwonym, nawet na czarno-białym filmie, a trawę - w zielonym, nawet na impresjonistycznym obrazie, gdzie naprawdę jest fioletowa.
7.3.2. N astaw ienie Nastawienie percepcyjne {perceptual set) to wstępne przygotowanie umysłu do odbioru w procesie spostrzegania określonej informacji. Jeśli np. człowiek jest przygotowany, że zobaczy kwadrat, może być przekonany, że tak właśnie się stało, mimo że naprawdę pokazano mu prostokąt lub trapez. Prostą ilustracją zjawiska nastawienia percepcyjnego jest spostrzeganie rysunków, dwuznacz nych, których interpretacja percepcyjna zależy od tego, co pokazywano nam wcześniej lub czego się spodziewamy. Na przykład kształt
o może być odczytany jako jedna z liter alfabetu greckiego, jako zlepek dwóch małych liter „d” i „p”, a nawet jako kontur ptaka w locie. Siła nastawienia percepcyjnego może być tak duża, że spostrzeżenie będzie zupełnie nieadekwatne do rzeczywistości. W przypadkach mniej skrajnych na stawienie wydłuża czas spostrzegania obiektów nieoczekiwanych, czyli nie zgodnych z treścią nastawienia, a skraca czas percepcji obiektów oczekiwanych. Nastawienie percepcyjne odpowiada też za niektóre błędy kategoryzacji. Przy puśćmy, że pokażemy komuś rysunek, który może być zintepretowany na dwa sposoby: jako wizerunek łysego mężczyzny w okularach lub sylwetka szczura
7.3. Spostrzeganie jako proces odgórny
297
(Bugelski, Alampay, 1961). Jeśli wcześniej pokażemy serię rysunków należących do jednej z tych kategorii (np. obrazki różnych zwierząt), sprawimy, że rysunek dwuznaczny będzie zintepretowany jako przedstawiający szczura. Wystarczą cztery wcześniej pokazane rysunki zwierząt, aby 100% osób badanych zobaczyło szczura, podczas gdy w grupie kontrolnej, nie poddanej działaniu nastawienia, 81% osób spontanicznie interpretuje dwuznaczny rysunek jako portret mężczyzny (ryc. 7.4).
Ryc. 7.4. Wpływ nastawienia na spostrzeganie dwuznacznego rysunku. Ostatni rysunek, identyczny w obu rzędach, jest przez większość osób interpretowany jako portret mężczyzny w okularach. Jeśli jednak wcześniej pokażemy cztery rysunki zwierząt, większość ludzi zobaczy w ostatnim rysunku sylwetkę szczura (za: Bugelski, Alampay, 1961).
Wpływ nastawienia wywołanego manipulacją eksperymentalną jest krótko trwały. Aby je wyeliminować, zwykle wystarczy jawne odwołanie poprzedniej instrukcji lub zmiana charakteru bodźców poprzedzających. Bywają jednak ro dzaje nastawienia, wynikające z trwałych i głęboko utrwalonych struktur wiedzy albo ze stereotypów i uprzedzeń. Osoba uprzedzona w stosunku do pewnej grupy etnicznej będzie dostrzegać w wyglądzie i zachowaniu jej członków cechy, których zwykle nie zauważa, jeśli są to cechy zgodne ze stereotypem.
7.3.3. Złudzenia i błędy percepcji Trzecia grupa faktów, świadczących o odgórnym charakterze spostrzegania, to złudzenia i błędy w odbiorze informacji z otoczenia. Lista złudzeń percepcyjnych jest niezwykle długa, a podłoże działania różnych kategorii złudzenia jest nieco inne (Gregory, 1997). Niemniej niektóre z nich potwierdzają zasadę, że wiedza i wcześniejsze przygotowanie umysłu zniekształca sposób widzenia obiektów, czyli sposób interpretowania danych zmysłowych. Spektakularnym przykładem złudzeń percepcyjnych są tzw. figury nie możliwe (ryc. 7.5). Widząc tzw. trójkąt Penrose’a, nie umiemy zinterpretować poszczególnych linii, cieni i konturów, tak aby uzyskać spójną interpretację tego, co właściwie jest nam pokazywane. Nie umiejąc dokonać interpretacji, dochodzimy do wniosku, że taki przedmiot jest niemożliwy, to znaczy nie istnieje inaczej, jak tylko w wyobraźni artysty. Figury niemożliwe, w których lubował się holenderski artysta Maurits Comelis Escher, są interesującym
298
Rozdział 7. Percepcja
a a
\
a Ryc. 7.5. Figury „niemożliwe”. Pierwsza to trójkąt Penrose’a, a trzecia to „niemożliwy” sześcian Neckera.
przykładem działania konwencji przedstawiania trójwymiarowych przedmiotów na dwuwymiarowej kartce papieru. Chcąc narysować trzeci wymiar, artysta musi posłużyć się umownymi wskazówkami tego, co jest bliżej, a co dalej. Obie strony - twórca i odbiorca - znają tę konwencję jako coś zastanego, czyli jako część kultury, w której wzrastali. Wobec tego mogą nie zdawać sobie sprawy, że mają do czynienia z konwencją, która w innej kulturze, być może, nie obowiązywałaby (Deregowski, 1972). Niekiedy artysta dopuszcza się celowego nadużycia owej konwencji i w ten sposób powstają figury niemożliwe. Efekt paradoksu i zaskoczenia wynika stąd, że są to obiekty niemożliwe do wyprodu kowania, ale możliwe do narysowania.
7.3 .4 . W pływ kontekstu na spostrzeganie Ten sam układ bodźców może być różnie interpretowany w zależności od bodźców towarzyszących. Oznacza to, iż samo wrażenie zmysłowe może także prowadzić do zupełnie różnych spostrzeżeń. Siłę wpływu kontekstu można ocenić na przykładzie prostego układu 6 czarnych kół, położonych koncen trycznie wokół koła białego (ryc. 7.6). W zależności od tego, czy koło białe jest otoczone czarnymi kołami o małej czy dużej średnicy, może być widziane jako większe lub mniejsze. Mamy tu do czynienia ze złudzeniem percepcyjnym, którego mechanizm polega na działaniu kontekstu sytuacyjnego, wywołanego szczególnym układem bodźców. W klasycznym eksperymencie Stevena Palmera (1975) osobom badanym pokazywano złożoną scenę, np. widok typowej kuchni, a następnie pojedyncze obiekty, takie jak bochenek chleba, skrzynka na listy i dziecięcy bębenek do gry.
7.4. Teorie percepcji
299
:o: so -j
*
Ryc. 7.6. Wpływ kontekstu na spostrzeganie. Środkowe białe koło jest w obu wypadkach identyczne, jednak lewe wydaje się większe od prawego.
Zadanie polegało na nazwaniu tego obiektu, co wymagało jego rozpoznania percepcyjnego i zaliczenia do właściwej kategorii. Dodatkowo manipulowano stopniem wzajemnego podobieństwa obiektów wymagających rozpoznania; np. bochenek chleba nieco przypominał wyglądem skrzynkę na listy. Okazało się, że gdy obiekt był dopasowany do kontekstu, wprowadzonego przez wcześniej pokazywaną scenę (np. chleb i widok kuchni), rozpoznawano go łatwo i często, bo w ponad 80% przypadków. Gdy zaś obiekt był neutralny ze względu na kontekst, rozpoznawano go znacznie gorzej (ponad 60% rozpoznań), ale naj gorzej (ok. 40% prawidłowych odpowiedzi) rozpoznawano obiekty niezgodne z kontekstem, ale wizualnie podobne do obiektów zgodnych z kontekstem (np. skrzynka na listy w kontekście kuchni). Podobnie jak w przypadku prostych figur geometrycznych (por. ryc. 7.6), to samo wrażenie zmysłowe może pro wadzić do różnych perceptów, które w dodatku są konstruowane z mniejszym lub większym wysiłkiem.
7.4. Teorie percepcji Teorie spostrzegania dotyczą różnych aspektów tego procesu. Starsze koncep cje, jak teoria asocjacjonistyczna czy postaciowa, odpowiadają na pytanie o wzajemne zależności pomiędzy wrażeniami i spostrzeżeniami, koncentrując swoje rozważania na problemie prymatu całości lub części w procesie percepcji. Koncepcje te noszą nazwę teorii strukturalnych. Teorie modeli i teorie cech poszukują odpowiedzi na pytanie, w jaki sposób rozpoznajemy obiekt w polu percepcyjnym, zaś sam proces recepcji sensorycznej raczej ich nie zajmuje. Są one nazywane teoriami identyfikacji obiektów. Najpełniej proces spostrzegania opisują koncepcja obliczeniowa i koncepcja ekologiczna, wskazując w nieco odmienny sposób na dwukierunkowy (oddolny i odgórny) charakter procesu spostrzegania.
7.4.1. Teoria asocjacjonistyczna [Główną tezą koncepcji asocjacjonistycznej jest twierdzenie, że spostrzeżenie to prosta suma wrażeń i powstaje jako ich połączenie. Na przykład percepcja koncertu rockowego „na żywo” jest wynikiem sumowania szeregu wrażeń po chodzących z różnych zmysłów. Są wśród nich wrażenia: (1) słuchowe, zwią
300
Rozdział 7. Percepcja
zane z odbieranymi dźwiękami muzyki i reakcją tłumu; (2) wzrokowe, wyni kające m.in. z oprawy scenicznej występu; (3) węchowe, przybierające na sile wraz z czasem trwaniem występu (oraz ilością „wylanego potu”); czy też (4) dotykowe, zależne od miejsca, z którego występ się ogląda (pod sceną zazwyczaj jest tłoczniej). Pozbawienie koncertu rockowego na żywo pewnych wrażeń, takich jak wrażenia dotykowe, węchowe czy zapewne także niektóre wrażenia słuchowe (np. chóralny śpiew publiczności) prowadzi do zmiany spostrzeżenia - żaden szanujący się bywalec tego typu imprez nie uzna wyda rzenia pobawionego powyższych wrażeń za koncert rockowy na żywo. Z drugiej strony, w przypadku koncertu rockowego oglądanego w telewizji ważne są jedynie wrażenie wzrokowe i niektóre słuchowe, a słuchanego w radio - jedynie wrażenia słuchowe. Odmienne zestawy wrażeń definiują więc, przez swoją su mę, odmienne spostrzeżenia. Wrażenia łączą się ze sobą w spostrzeżenia na zasadzie praw kojarzenia. Pierwsze prawo dotyczy styczności wrażeń w czasie. W procesie percepcji łączymy ze sobą w spostrzeżenie te wrażenia, które współwystępują w tym samym czasie, bądź też te, które wiąże następstwo czasowe. W ten sposób wrażenia smakowe, związane np. z piciem szampana, z jednej strony kojarzą się z wrażeniami dobrej zabawy, z drugiej jednak strony - z wrażeniem bólu głowy następnego dnia. Drugie prawo mówi o styczności wrażeń w przestrzeni. W tym przypadku łączymy ze sobą w spostrzeżenie te wrażenia, które współwystępują w jednym miejscu przestrzeni. W ten sposób doznanie gorąca raczej nie zostanie skojarzone z wrażeniem bieli śniegu, a doznanie zimna z wrażeniem barwy pustynnego piasku. Trzecie prawo głosi zasadę kojarzenia wrażeń przez podobieństwo. Spostrzeżenie powstaje z połączenia wrażeń, które uznajemy za podobne z jakiś powodów, np. pod względem barwy czy kształtu. Wreszcie ostatnie prawo głosi, że wrażenia mogą tworzyć spostrzeżenie przez wzajemny kontrast. Człowiek mały wzrostem bywa często uznawany za wielkiego duchem, nawet wtedy, gdy jego duch nie jest wcale silniejszy niż innych ludzi. Współwystępowanie wrażeń jest niezbędnym, ale niewystarczającym wa runkiem powstania spostrzeżenia. Dopiero wielokrotne łączne występowanie poszczególnych wrażeń sprzyja powstaniu skojarzenia w postaci spostrzeżenia. W przeciwnym wypadku ktoś, kto widziałby śnieg tylko kilka razy podczas kwietniowych wypadów na narty na Kasprowy Wierch, mógłby dokonać spostrzeżenia, iż biel śniegu jest powiązana z wrażeniem ciepła, a nie zimna. Najbardziej problematycznym twierdzeniem koncepcji asocjacjonistycznej jest jednak teza jednoznacznie identyfikująca sumę wrażeń z konkretnym spostrze żeniem. Znanym przykładem przemawiającym przeciwko tej tezie jest spostrzeżenie kostki Neckera (ryc. 7.7). Wrażenia powstające przy oglądaniu tego sześcianu za każdym razem są takie same, jednak spostrzeżenia mogą być zupełnie inne, w zależności od tego, na której ścianie - przedniej czy tylnej jako pierwszej zogniskuje się wzrok. Koncepcja asocjacjonistyczna głosi więc prymat części nad całością oraz wrażeń nad spostrzeżeniam i, które od wrażeń właśnie są całkowicie i jednoznacznie zależne. Niezwykle prosty mechanizm powstawania spostrzeże nia jako prostej sumy wrażeń, sugerowany przez tę koncepcję, jest całkowicie oddolny i nie uwzględnia w ogóle roli reprezentacji umysłowych w procesie percepcji. A przecież fakt braku spostrzeżenia „ciepłego śniegu” na Kasprowym
7.4. Teorie percepcji
301
Ryc. 7.7. Sześciany Neckera. W zależności od tego, które z krawędzi uznamy za bliższe obserwato rowi, możemy wyobrazić sobie zupełnie różne interpretacje tego samego układu wrażeń wzrokowych.
Wierchu w kwietniu na równi wynika z rzadkości współwystępowania wrażenia ciepła i bieli śniegu, jak i z faktu korzystania z trwałych reprezentacji umysło wych, czyli wiedzy na temat warunków klimatycznych panujących w polskich górach na wiosnę.
7.4.2. Teoria postaciowa Zwolennicy postaciowej koncepcji spostrzegania (Max Wertheimer, Kurt Koffka, Wolfgang Kohler) jako podstawową przyjęli tezę prymatu całości nad częścią. Ich zdaniem (np. Wertheimer, 1923) pierwotne są spostrzeżenia, wra żenia zaś wtórne, gdyż wynikają z analizy tego, co zostało pierwotnie spostrze żone. Całość jest czymś więcej niż sumą części, dlatego sumowaniem wrażeń nie da się, według psychologów postaci, wyjaśnić procesu percepcji. Prostymi argu mentami na rzecz tej tezy są: (1) zjawisko płynnego ruchu pozornego elementów statycznych (szybko wyświetlane po sobie statyczne obrazy wywołują złudzenie ruchu, np. w filmie rysunkowym) oraz (2) spostrzeganie konstelacji gwiazd wcześniej niż elementów składających się na te konstelacje. Drugi z powyższych argumentów potwierdził empirycznie Navon (1977). Prezentował on osobom badanym bodźce w postaci liter, które skonstruował z innych liter (por. ryc. 6.4), polecając wyodrębnić albo literę stanowiącą budulec (spostrzeganie części), albo literę zbudowaną z innych liter (spostrzeganie całości). W wyniku prze prowadzonego eksperymentu wykazał on, że spostrzeganie postaci jest z reguły szybsze niż spostrzeganie części stanowiących tę postać. Jeden z najwybitniejszych psychologów postaci, Max Wertheimer (1923), podał pięć podstawowych zasad, zgodnie z którymi system poznawczy w procesie spostrzegania wyodrębnia całości (figury) z tła różnorodnych wra żeń. Zasady te działają automatycznie, odpowiadając za spontaniczną orga nizację elementów w polu spostrzeżeniowym. Autor ten stwierdził, że figurę tworzą elementy znajdujące się blisko siebie. Bliskość przestrzenna poszcze gólnych elementów konstelacji gwiazd decyduje więc o tym, że spostrzegamy je jako całość, czyli gwiazdozbiór. Zauważył również, że figurę tworzą ele
302
Rozdział 7. Percepcja
menty jednakowe lub podobne. Gdyby nie podobieństwo, czyli jednakowy wygląd kartek, ryzę papieru widzielibyśmy jako 500 pojedynczych arkuszy. Zgodnie z kolejną zasadą Wertheimera, figurę definiuje kontynuacja, inaczej wspólny ruch obiektów w tym samym kierunku, nawet wyobrażony. Spostrze gamy więc korek samochodowy jako całość, a nie jako zbiór pojedynczych samochodów w różny sposób blokujących nam przejazd. Figurą staje się również obiekt niedokończony, który w jakiś sposób można „domknąć”; rządzi tym kolejna reguła, zwana zasadą pregnancji. Z dwóch układów geometrycz nych percepcyjnie łatwiej wyodrębnić ten, który tworzy linię zamkniętą (jest fizycznie domknięty). Jeśli natomiast jakiemuś obiektowi brakuje poje dynczej części (np. trójkątowi brak jest jednego wierzchołka), to w procesie spostrzegania fakt ten jest pomijany: widzimy trójkąt, a dopiero późniejsza analiza pozwala znaleźć jego niedoskonałości jako figury geometrycznej (ryc. 7.8). Obserwacje te ujęto w ogólną zasadę dobrej figury. Właśnie ze względu na tę zasadę tak trudno jest dobrze wykonywać zawód korektora tekstów: nawet doświadczony redaktor często nie zauważa literówek, mentalnie uzupełniając błędnie napisane słowo do dobrej figury, jaką jest wyraz napisany poprawnie. a) Zasada bliskości: mimo tej samej liczby gwiazdek, po lewej stronie widzimy dwie linie, po prawej sześć mniejszych odcinków.
^> ]<>;<^ >;« %
*
^ łji # »¡«# # #
¡5«# >J{
% %#* »¡i &
b) Zasada podobieństwa: widzimy raczej sześć kolumn niż cztery rzędy.
*
<-
% <■
❖ ^
* < * < * < * < * < * < c) Zasada kontynuacji (wspólnej drogi, wspólnego losu): widzimy dwie przecinające się linie, a nie kilkanaście rozrzuconych w nieładzie krótkich odcinków.
\ i
/ __ ^
"
d) Zasada pregnancji: widzimy trójkąt, mimo że poniższa figura nie jest „domknięta”.
Ryc. 7.8. Zasady percepcji postaci, czyli reguły spontanicznego grupowania się elementów w polu spostrzeżeniowym, opisane przez psychologów postaci.
7.4. Teorie percepcji
303
I [
Koncepcja postaciowa sugeruje zatem wyraźną wtómość wrażeń wobec spostrzeżeń. Parafrazując tytuł publikacji Navona (1977), ludzie z reguły najierw zauważają las, a następnie zdolni są wyodrębnić poszczególne drzewa tworzące ten las. Niemniej nie brakuje też i takich, którzy wpierw dostrzegają elementy budujące większą całość, by potem z nich złożyć spostrzeżeniową postać. Wieloletnie eksperymenty autorów tego podręcznika z udziałem stu dentów i studentek I roku psychologii z wykorzystaniem procedury Navona wyraźnie wskazują, że o ile kobiety szybciej radzą sobie w warunku percepcji detali, o tyle mężczyźni znacznie szybciej wykonują zadanie, gdy wymaga się od nich postrzegania całości. Wyniki te sugerują istnienie znacznych różnic indywidualnych w zakresie ulegania zasadzie prymatu percepcyjnego (części nad całością lub całości nad częścią), a w konsekwencji pozwalają na konkluzję, iż obie wyżej opisane strukturalne koncepcje spostrzegania: asocjacjonistyczna oraz postaciowa, mogą prawidłowo opisywać proces percepcji w zależności od warunków percepcji oraz indywidualnych cech systemu poznawczego. Ta ostatnia teza jest zresztą zgodna z piątą zasadą percepcji postaci głoszącą, iż o tym, czym jest figura, decyduje nastawienie i doświadczenie percepcyjne. Jeśli podmiot cechuje się analityczno-detalicznym stylem percepcyjnym, wykształco nym wskutek wcześniejszych doświadczeń percepcyjnych, to raczej trudno od niego wymagać, aby proces spostrzegania rozpoczynał od detekcji całościowo ujmowanego, nadrzędnego obiektu w polu percepcyjnym.
J
7.4.3. Teoria wzorców
; ;
j
| Koncepcja ta zakłada, że proces identyfikacji obiektu przebiega na zasadzie porównania obrazu percepcyjnego z jego umysłowym wzorcem (template). O wzorcach porównawczych zakłada się, że są holistycznymi, nie podlegającymi rozbiciu na elementy składowe, jednostkami (Reed, 1988). Proces porównania zmierza do pomiaru wielkości korespondencji (zgodności) pomiędzy zarejes trowanym obrazem bodźca a jego odpowiednikiem przechowywanym w magaI zynie pamięci trwałej (Anderson, 1995). Obiekt zostaje rozpoznany jako ten : wzorzec, który w największym stopniu pasuje do obrazu zarejestrowanego bodźca (best match) . Miarą umożliwiającą rozpoznanie jest stopień pokrywania ; się (przystawania) obrazu percepcyjnego i wzorca (Reed, 1988). Stosowanie w procesie identyfikacji obiektów takiej miary, jak stopień i pokrywania się porównywanych obiektów, jest jednak bardziej problematyczne j niż użyteczne. Po pierwsze, porównanie może zachodzić tylko w przypadku, gdy ; obiekt porównywany do wzorca znajduje się w naturalnej (takiej jak zwykle) i pozycji percepcyjnej. Zgodnie z prawem rotacji mentalnych (zob. rozdz. 2.2) identyfikacja obiektu transformowanego o pewien kąt rotacji wymaga jego przekształcenia do pozycji naturalnej. Im większy jest kąt rotacji, tym dłużej trwa poprawna identyfikacja obiektu. Po drugie, zróżnicowanie w zakresie obrazów percepcyjnych tego samego obiektu (widzianego np. z różnych punk tów obserwacji) jest tak duże, że żaden konkretny wzorzec nie jest w stanie ; objąć takiego zróżnicowania. Konkretność i holizm wzorca porównawczego wyklucza możliwość elastycznego dostosowania się nawet wtedy, gdy różnice ; w przystawaniu obrazu percepcyjnego i jego wzorca są niewielkie. Znakomicie
304
Rozdział 7. Percepcja
ilustruje ten problem przykład automatu bankowego. Realizuje on transakcję tylko w przypadku 100% zgodności obrazu karty bankomatowej konkretnego właściciela i wzorca tej karty, który przechowuje w swojej pamięci. Nawet minimalne uszkodzenie karty, polegające np. na zmniejszeniu wypukłości jednej z cyfr jej numeru powoduje, iż nie jest ona rozpoznawana przez bankomat, a transakcja nie może być zrealizowana. Zgodnie z tą teorią niewielka różnica, odstępstwo od wzorca, zaniedbywana na poziomie rejestracji sensorycznej, uniemożliwia identyfikację bodźca. Po trzecie wreszcie, omawiana koncepcja nie wskazuje na sposób, w jaki różnią się od siebie poszczególne wzorce. Jedyne, co można stwierdzić w ramach teorii modeli, to fakt braku przystawania poszczególnych wzorców do siebie, ale stopień tej nieprzystawalności jest tak samo niewymierny, jak niewymierne są możliwe odstępstwa od pokrywania się obrazu percepcyjnego i jego wzorca. Mimo powyższych problemów, teoria wzorca okazuje się użyteczną kon cepcją rozpoznawania obiektów w pewnych szczególnych warunkach percepcyjnych. Phillips (1974) prezentował osobom badanym tabele, w których część cel (rubryk) była całkowicie wypełniona, a część pozostawała pusta (pola wy pełnione i puste umieszczano w tabeli losowo). Następnie, po upływie pewnego czasu, uczestnikom eksperymentu prezentowano ponownie tabelę (tę samą lub inną) z pytaniem, czy jest ona identyczna, czy różna od uprzednio pokazywanej. Druga tabela mogła być prezentowana albo dokładnie w lokalizacji pierwszej, albo w lokalizacji przesuniętej horyzontalnie o jedną celę (rząd) tabeli. Pre zentacja bodźca porównawczego była opóźniona - w tym miejscu zostaną uwzględnione w opisie wyników opóźnienia jedynie w zakresie od 20 do 600 ms. W wyniku badań Phillips wykazał, że jeśli bodźce były prezentowane w tej samej lokalizacji przestrzennej, to poprawność wykonania zadania przez badanych malała jako funkcja czasu opóźnienia prezentacji bodźca porównawczego. Przy opóźnieniu większym niż 300 ms ta sama lokalizacja przestrzenna dwóch tabel nie pomagała istotnie w procesie porównywania. Natomiast w przypadku różnej lokalizacji bodźca zapamiętywanego i porównywanego, czas opóźnienia nie miał żadnego znaczenia dla bardzo niskiej poprawności wykonania zadania przez badanych. Powyższe wyniki Reed (1988) wyjaśnia zasadami funkcjonowania maga zynu ikonicznego (zob. rozdz. 7.2.2). W magazynie tym informacja wizualna jest kodowana sensorycznie w postaci całościowego obrazu. Zapis ten ulega bardzo szybkiej degradacji, z jednej strony, wskutek nietrwałości kodu percepcyjnego, a z drugie strony, z następstwa kolejnych obrazów percepcyjnych. Zgodnie zaś z wynikami badań Sperlinga (1960), jeśli narząd wzroku zostanie zmuszony do kolejnej, szybkiej fiksacji na kolejnym bodźcu, informacje dotyczące po przedniej fiksacji ulegają całkowitemu wyparciu. Tak działo się w przypadku, gdy prezentacja jednej tabeli bodźców następowała bardzo szybko po przed stawieniu innej. Inaczej dzieje się jednak, jeśli w punkcie fiksacji zostanie zaprezentowany po raz drugi ten sam bodziec. Wtedy poprawność porównania dwóch obrazów (bodźca do zapamiętania i bodźca porównawczego) jest uza leżniona od trwałości magazynu ikonicznego, a ta - jak wiadomo - zmniejsza się wraz z czasem przechowywania informacji. Dlatego poprawność wykonania w warunku tej samej lokalizacji jest tym lepsza, im krótszy czas opóźnienia prezentacji bodźca porównawczego.
7.4. Teorie percepcji
305
Można zatem stwierdzić, że koncepcja identyfikacji obiektów przez porów nywanie całościowych obrazów percepcyjnych i umysłowych jest możliwa do zaakceptowania w zasadzie tylko na poziomie recepcji sensorycznej. Rzeczy wiście, informacja przechowywana w magazynach sensorycznych, zdaje się mieć holistystyczny charakter, a wobec braku możliwości wyodrębnienia poszczegól nych właściwości tego typu reprezentacji na poziomie sensorycznym porówny wanie ich ze sobą może dotyczyć tylko całości. Jak się jednak wydaje, na dal szych etapach procesu spostrzegania dochodzi do wyodrębnienia poszczegól nych cech obiektów. Ich porównanie dokonuje się raczej dzięki analizie wy odrębnionych właściwości, a nie sprawdzania przystawania poszczególnych odzwierciedleń względem siebie. Takie też rozwiązanie proponuje koncepcja cech.
7.4.4. Teoria cech [ \ ; ; i
| ; | | [ ; i I i
L j
\ \ i
f ; : i j [
Zasadniczym problemem teorii modeli jest wyżej wskazana niewielka trwałość danych przechowywanych w magazynach informacji sensorycznej. Tylko w przypadku, gdy proces identyfikacji obiektu trwa bardzo krótko, system poznawczy może polegać* wyłącznie na zakodowanych w wyniku rejestracji zmysłowej obrazach sensorycznych. Proces ten wymaga jednak coraz więcej czasu, w miarę jak wzrasta liczba potencjalnych kategorii umysłowych, do których można zaliczyć przetwarzane dane zmysłowe (Posner, Mitchell, 1967; zob. rozdz. 7.2.2). Jednocześnie, dalsze przetwarzanie tych danych polega na wyróżnianiu ich dystynktywnych właściwości przez zespoły komórek zwane detektorami cech (zob. rozdz. 7.2.1). Stąd można wnosić, że w procesie identyfikacji obiektów, przebiegającym w dłuższej perspektywie czasowej, rozpoznanie opiera się nie na analizie całościowego obrazu sensorycznego obiektu, ale jest dokonywane na podstawie analizy szczególnie dystynktywnych właściwości tych obiektów i porównania tychże właściwości z cechami reprezentacji umysłowych obiektów tej samej kategorii umysłowej. Gibson (1969) stwierdziła, że nabywanie wzorcowych reprezentacji umy słowych odbywa się w procesie spostrzegania dystynktywnych cech (;features), pozwalających odróżnić jeden wzorzec od drugiego. Zaproponowała ona cztery zasady, zgodnie z którymi wyróżniane są w procesie spostrzegania takie właśnie cechy kryterialne. Gibson zauważyła (zasada pierwsza), że cecha kryterialna musi przyjmować różne wartości dla różnych wzorców. Taką właściwością dla liter wydaje się np. ich wysokość, pozwalająca odróżnić choćby litery: „d”, „s” i „p”. Konkretna wartość cechy kryterialnej przypisana konkretnemu modelowi powinna, według Gibson (zasada druga), pozostać niezmienna niezależnie od punktu i właściwości obserwacji (jasność, wielkość i perspektywa). W ten sposób litera „d” pozostaje zawsze wyższa niż litera „s”, niezależnie od rodzaju użytej czcionki (pod warunkiem, że tej samej dla obu liter). Gibson stwierdziła również (zasada trzecia), że wszystkie cechy kryterialne powinny razem (mechanizm integracji cech w obiekt - zob. rozdz. 5.2.2) układać się w unikatowy wzorzec - żadne dwa różne wzorce nie mogą się charakteryzować kombinacją tych samych cech kryterialnych. Litery „d” i „b” mają mnóstwo cech wspólnych, takich jak np. wysokość, „brzuszki” itd. jednak ich różna orientacja prze
306
Rozdział 7. Percepcja
strzenna w zestawieniu z tymi wspólnymi właściwościami gwarantuje ich rozróżnialność. Jako ostatnią, czwartą zasadę wyodrębniającą cechy kryterialne Gibson przyjęła, że liczba cech kryterialnych powinna być relatywnie mała. W przeciwnym razie proces identyfikacji obiektu przebiegałby bardzo długo, a przecież mamy wrażenie, że przebiega bardzo szybko (np. czytanie liter czy też rozpoznawanie twarzy). Zgodnie z teorią modeli prawidłowa decyzja o tym, że dwa obiekty nie są egzemplarzami tego samego wzorca, nie powinna zależeć od stopnia podo bieństwa obu porównywanych bodźców. Wystarczy drobne nieprzystawanie porównywanych obrazów sensorycznych, by podjąć szybką decyzję. Natomiast zgodnie z teorią cech, szybkość podejmowania decyzji o różności obiektów zależy od proporcji liczby cech wspólnych i kryterialnych. W eksperymencie Gibson, Shapiro i Jonas (1968) osoby badane porównywały litery. Decyzja 0 różności liter „G” i „W” zapadała bardzo szybko, a czas jej podjęcia wyniósł średnio 458 ms. Uczestnicy tego badania potrzebowali średnio aż 113 ms więcej (czyli 571 ms), aby prawidłowo ocenić różność liter „P” i „R”. Czas decyzji okazał się rosnącą funkcją podobieństwa obu porównywanych obiektów pod względem cech kryterialnych. Wynik ten wyraźnie wskazuje na niekorzyść teorii modeli i na słuszność koncepcji cech w odniesieniu do bodźców prezentowa nych aż do momentu ich identyfikacji. Townsend (1971) również prezentował badanym litery do porównania, jednak swoją prezentację przeprowadzał bardzo szybko z wykorzystaniem tachistoskopu, aby być pewnym, że prezentowane bodźce trafiają do magazynu ikonicznego. Okazało się, że badani popełniali relatywnie dużą liczbę błędów. Co więcej, liczbę i rodzaj błędów (litery uzna wane za podobne mimo swej różności) przy krótkiej prezentacji udawało się lepiej przewidzieć na podstawie koncepcji modeli (korelacja: błędy oczekiwane - błędy stwierdzone wyniosła aż 0,70), niż na podstawie koncepcji cech (ana logiczna korelacja tylko 0,50). Powyższe wyniki wskazują na komplementarność obu koncepcji: modeli 1 cech, w wyjaśnianiu procesu identyfikacji obiektów. Przy krótkiej prezentacji i braku czasu na wyodrębnianie cech kryterialnych, system poznawczy kieruje się w procesie spostrzegania zarejestrowanym, całościowym obrazem sensorycz nym i odpowiadającymi mu obrazowymi modelami umysłowymi. Proces iden tyfikacji obiektów ma bowiem charakter próby dopasowania właśnie zareje strowanych danych zmysłowych do trwałych obrazów umysłowych. Porównanie to ma charakter całościowy i często - na skutek pomijania małych różnic (ela styczność modeli) - prowadzi do błędów identyfikacji. Przy długiej prezentacji system poznawczy ma wystarczająco dużo czasu na wyodrębnienie cech kry terialnych i porównywanie obiektów poprzez szczegółową ich analizę pod kątem tychże właściwości. Tego typu identyfikacja jest procesem trwającym dłużej, ale prowadzi do bardziej poprawnych rozróżnień. Podkreślić warto, iż roz poznawanie obiektów jest złożonym procesem umysłowym, do którego stosuje się podstawowa zasada funkcjonowania umysłu, wykorzystywana również przy detekcji prostych sygnałów, tj. zasada przetargu między szybkością a popraw nością (zob. rozdz. 5.2.1). Szybka, ale mało poprawna identyfikacja na podsta wie zestawiania modeli sensorycznych i umysłowych, oraz wolna, ale dokładna identyfikacja na podstawie analiz zestawów cech kryterialnych, są dwoma alternatywnymi sposobami rozpoznawania złożonych bodźców peręepcyjnych.
7.4. Teorie percepcji
307
7.4.5. Teoria obliczeniowa
i ; i ■ I I i i I i j i : j
I : j ; j
j :
|
Zdaniem Davida Marra (1982), proces spostrzegania polega na generowaniu pewnej serii reprezentacji spostrzeganego środowiska. Reprezentacje te zawiera ją opis właściwości obiektów obecnych w polu percepcyjnym. Wśród wielu różnych form odzwierciedleń percepcyjnych Marr wyróżnił jednak tylko trzy, oznaczając je: 2D, 2V2D oraz 3D, gdzie D oznacza wymiar, a cyfra go poprze dzająca - liczbę wymiarów uwzględnianych w reprezentacji umysłowej. Pier wotne reprezentacje (primal sketch; 2D) przynoszą opis pola wzrokowego jako dwuwymiarowego obrazu, a odzwierciedlenie to pozbawione jest percepcji głębi. Taka reprezentacja jest możliwa dzięki strukturalnie najprostszym detektorom cech, zlokalizowanym w komórkach zwojowych siatkówki. Wychwytują one dzięki analizie natężenia światła odbijanego czy też emanowanego przez postrzegane obiekty - jedynie takie właściwości stymulacji, jak krawędzie, kontury, linie i powierzchnie barwne obiektów. Możliwość wyróżnienia krawędzi figury (jej kształtu) zawdzięczamy temu, że oddziela ona dwa obszary o różnej luminacji światła. Efekt ten został nazwany zjawiskiem przechodzenia przez krawędź (zero-crossing; Marr, Hildreth, 1980). Natomiast powierzchnie zostają wyodrębnione przez otaczające je krawędzie oraz przez intensywność światła przez nie odbijanego, związanego z ich naturalną barwą. Marr (1976) podzielił jeszcze pierwotne reprezentacje na surowe (raw) i pełne (fuli). Pierwsze stanowią jedynie mapę punktów świetlnych (pixels; tj. picture elements), różniących się intensywnością, podczas gdy drugie - czyniąc użytek z informacji zawartych w danych surowych - odzwierciedlają kształty obiektów w polu wzrokowym. Ze względu na to, że natężenie światła w po szczególnych punktach świetlnych zmienia się nieustannie, surowe reprezentacje pierwotne są tworzone nieustannie, a pełna reprezentacja pierwotna jest efektem przefiltrowania wielu odzwierciedleń surowych. Nałożony na mapy punktów świetlnych filtr pozwala wyeliminować chwilowe fluktuacje w inten sywności światła (związane np, ze zmianą kąta widzenia czy opadającym na obiekty cieniem), utrudniające spostrzeganie właściwych kształtów obiektów. Jako kolejna w procesie spostrzegania tworzy się reprezentacja 2x/2-wymiarowa (21/ 2D). Odzwierciedlenie to uwzględnia opis obiektów w kategoriach głębi (perspektywy przedmiotu) oraz obrazu powierzchni (strona widoczna). Podobnie jak w przypadku reprezentacji pierwotnych, także i to odzwierciedle nie jest zależne od punktu obserwacji. Jest ono jednak konstruowane już nie tylko z informacji pochodzących od receptorów wzrokowych, ale również z uwzględnieniem wskazówek wizualnych, będących efektem trwałej wiedzy dotyczącej świata zewnętrznego oraz fizjologicznych mechanizmów funkcjonowania narządu wzroku. Dzięki wskazówkom jednoocznym i dwuocznym możliwa jest percepcja absolutnego i względnego dystansu między obiektami. Zróżnicowanie w zakresie dystansu pozwala* na wychwycenie charakterystyki powierzchni spostrzeganych obiektów. Argumentów na rzecz odrębności w procesie spostrzegania reprezentacji 2D oraz 2 V2D dostarczyły analizy możliwości percepcyjnych pacjenta S (Benson, Greenberg, 1969). Badany ten, z jednej strony, potrafił rozpoznawać małe zróżnicowania w zakresie jasności obiektów czy też wychwytywać ruch przedmiotów w polu wzrokowym. Z drugiej jednak strony, nie był w stanie
308
Rozdział 7. Percepcja
porównywać ani kopiować kształtu figur geometrycznych. Zdaniem Eysencka i Keane’a (1995) świadczy to na korzyść tezy, iż S był w stanie korzystać z re prezentacji pierwotnych (z pewnością z ich formy surowej, z dużym prawdo podobieństwem z formy pełnej), jednak zaburzeniu uległ u niego proces przekształcania reprezentacji pierwotnych w reprezentacje 2 V2-wymiarowe. Przetwarzanie informacji dotyczących kształtu - jak wynika z tego przypadku jest konieczne dla stworzenia reprezentacji głębi i powierzchni przedmiotu. Jednocześnie badacze zauważyli, że S potrafił korzystać z trwałych umysłowych reprezentacji obiektów znajdujących się w polu wzrokowym, jeśli uruchomienie pełnego odzwierciedlenia prezentowanych mu przedmiotów nie odbywało się za pośrednictwem zmysłu wzroku. Wskazówki słuchowe lub dotykowe umożli wiały pacjentowi S dokonanie semantycznej i leksykalnej klasyfikacji spostrze ganych bodźców. Jeśli jednak musiał ograniczyć się jedynie do percepcji wzrokowej, identyfikacja obiektu przekraczała jego możliwości. Jak się więc wydaje, reprezentacja 2 */2D jest koniecznym etapem pośrednim w tworzeniu ostatecznej reprezentacji trójwymiarowej (3D), jeśli spostrzeżenie tworzy się wyłącznie na podstawie informacji wizualnych. Dzięki różnorodności narządów zmysłów możliwe jest skonstruowanie pełnej, trójwymiarowej reprezentacji percepcyjnej obiektu bez korzystania ze zmysłu wzroku. To zapewne dlatego niewidomi od urodzenia, poznający kształty figur jedynie zmysłem dotyku, ulegają efektowi rotacji mentalnych (Marmor, Zaback, 1976; zob. rozdz. 2.2), który - jak się wydaje - jest nieodłącznie związany z przetwarzaniem re prezentacji obrazowych. Odzwierciedlenia 3D są, zdaniem Marra (1982), ostatecznym produktem procesu percepcji. Reprezentacje tego typu uwzględniają pełny trójwymiarowy obraz obiektów w polu wzrokowym (łącznie ze stroną niewidoczną dla oka), niezależny od lokalizacji punktu obserwacji, a co za tym idzie - niezależny również od kąta obserwacji. Układy komórek nerwowych, odpowiedzialne za ich konstrukcję, znajdują się już w korze wzrokowej. Mają one bogate połączenia z tymi obszarami mózgu, które odpowiadają za trwałe przechowy wanie wiedzy o świecie. Marr i Nishihara (1978) zaproponowali trzy kryteria wyróżniające reprezentacje 3D. Zgodnie z pierwszym kryterium, odzwierciedle nia te muszą być łatwo dostępne i łatwo konstruowalne (tak łatwo, jak dostępna jest trwała wiedza na temat obiektów, które reprezentują). Według drugiego kryterium, muszą one być niezależne od możliwego kształtu obiektu widzianego z różnych perspektyw (np. reprezentacja wizualna twarzy musi być niezależna od tego, czy jest widziana z lewego, czy też z prawego profilu). Trzecie kryterium stanowi, że reprezentacje 3D muszą być elastyczne, aby zdolne były dopuszczać niewielkie rozbieżności w widoku obiektu z różnych perspektyw. Badania nad niezależnością reprezentacji 2 1/ 2D i 3D przeprowadzili Warrington i Taylor (1978). Uczestniczący w nich pacjent potrafił identyfikować obiekt na pokazywanych mu zdjęciach na podstawie analizy jego kształtu. Jeśli jednak pokazywano mu zdjęcie znanego przedmiotu w niezwykłej rotacji (np. żelazka w rzucie od strony uchwytu), nie był w stanie prawidłowo rozpoznać obiektu. Jak sugerują Eysenck i Keane (1990), u tego pacjenta funkcjonowanie reprezentacji 2 1/ 2D nie było zaburzone, jednakże pełna trójwymiarowa reprezentacja wizualna spostrzeganego środowiska pozostawała poza jego za sięgiem.
7.4. Teorie percepcji
i Ę l j I
i
E
309
Nad odzwierciedleniami 3D pracowali również Marr i Nishihira (1978). Stwierdzili oni, że subsystemy niezbędne do konstrukcji odzwierciedleń 3D mają postać walców, obracających się wokół trzech podstawowych osi układu współrzędnych w przestrzeni. W zależności od wymaganej precyzji spostrzega nia, postać człowieka może być reprezentowana wizualnie albo przez odcisk figury w ramach pojedynczego walca, albo przez sześć uformowanych walców, odpowiadających dwóm nogom, dwóm rękom, głowie i korpusowi, albo też przez bardzo wiele walców różnych wielkości, przy czym każdy odzwierciedlał by szczegóły anatomiczne poszczególnych kończyn, czy wręcz narządów. Podział obiektu na poszczególne części przedstawione za pomocą różnej wielkości walców byłby w tym przypadku możliwy dzięki detekcji wklęsłości (concavities). Informacja o zróżnicowaniach w zakresie powierzchni figury (wklęsłościach i wypukłościach) jest już bowiem dostępna na poziomie re prezentacji 2V2D. Tam prawdopodobnie zapada więc decyzja o liczbie elemen tów obiektu odzwierciedlanych w formie walców 3D. Kontynuując badania nad formą reprezentacji 3D, Hoffman i Richards (1984) wykazali, że twarze wy raźnie zarysowane (dzięki wklęsłościom pomiędzy wypukłymi elementami, jak np. nos, brwi, podbródek) są łatwiej rozpoznawane niż twarze, w których przypadku charakterystyczne elementy są „wtopione” w powierzchnię („buzia jak księżyc w pełni”). Propozycję Marra i Nishihiry rozwinął Biederman (1987), sugerując jednak, że reprezentacje 3D są konstruowane z różnych przestrzennych form podstawowych. Wyróżnił on 36 takich możliwych form geometrycz nych - geonów (zob. rozdz. 7.2.4). Teoria obliczeniowa Marra (1982), tak nazwana ze względu na ambicje autora, aby wykorzystać ją do modelowania komputerowego, znajduje swoje potwierdzenie w różnorodnych danych. Z jednej strony potwierdzają ją dane psychofizyczne, dotyczące funkcjonowania narządu wzroku oraz sposobu rejestracji natężenia iluminacji obiektów w polu percepcyjnym, z drugiej zaś, teoria ta znajduje mocne potwierdzenie w badaniach psychofizjologicznych, dotyczących zróżnicowań strukturalnych i funkcjonalnych wśród detektorów cech na wstępującej drodze czuciowej. Zgodne są też z nią wyniki badań psychologicznych z udziałem pacjentów klinicznych, którzy - cierpiąc na różnorodne deficyty w zakresie układu nerwowego - borykają się z trudnościa mi w zakresie konstrukcji poszczególnych wizualnych reprezentacji obiektów w polu percepcyjnym. Teoria obliczeniowa jest koncepcją zakładającą, iż spostrzeganie to proces dwukierunkowy. Wychodząc od danych zmysłowych nie może być w pełni realizowane bez danych pamięciowych. Pewnym ogra niczeniem koncepcji Marra jest natomiast jej odniesienie tylko do percepcji wzrokowej.
7.4.6. Teoria ekologiczna Według Jamesa Gibsona (1979), otaczającą nas rzeczywistość poznajemy bez pośrednio, bez konieczności posługiwania się danymi pamięciowymi dotyczą cymi spostrzeganych obiektów. Głosi on więc ideę bezpośredniego poznania, sprzeczną w zasadzie z podstawowymi założeniami psychologii poznawczej, zgodnie z którymi umysł aktywnie konstruuje wewnętrzną reprezentację
310
Rozdział 7. Percepcja
poznawanej rzeczywistości (Bruner, 1957). Jego koncepcja jest więc przykładem oddolnego podejścia do procesów spostrzegania. W odniesieniu do recepcji sensorycznej Gibson (1950) zgadza się w zasadzie z innymi badaczami procesu spostrzegania, według których informacje docierają do receptorów w szyku optycznym (optic array), uporządkowanym ze względu na intensywność światła odbijanego od poszczególnych obiektów, a fotoreceptory rejestrują natężenie światła, przyczyniając się do powstania obrazu spostrzeganych obiektów na siatkówce. Tu jednak podobieństwa koncepcji ekologicznej i obliczeniowej się kończą. Gibson (1966) twierdzi bowiem, że poszczególne właściwości obiektów w polu wzrokowym są wykrywane bezpośrednio - nie jest zatem, jego zdaniem, potrzebny cały ciąg reprezentacji w celu detekcji cech lub funkcji przedmiotów, a przetwarzanie informacji zgromadzonej w receptorach ma minimalny zakres. Złożoną właściwością bezpośrednio daną w percepcji jest np., według Gibsona, absolutny dystans obserwatora względem spostrzeganego obiektu. Cecha ta jest dostępna na podstawie analizy gradientu struktury powierzchni (texture gradient). Obiekty widziane z daleka mają tę strukturę mniej skomplikowaną, a intensywność światła odbijanego przez taką powierzchnię jest mniej zróż nicowana dla fotoreceptorów oka. Różnica pomiędzy koncepcją obliczeniową a ekologiczną jest zatem widoczna już na poziomie reprezentacji percepcyjnych kształtów. Marr uważa, że detekcja głębi i struktury powierzchni wyma ga skomplikowanych przekształceń mapy punktów świetlnych na poziomie reprezentacji 21/ 2D, natomiast Gibson twierdzi, że właściwości te są dane bez pośrednio w postrzeganiu w postaci różnic w intensywności rejestrowanego światła. W przypadku obiektów odległych różnice te są jednak minimalne. Dlatego, zdaniem Gibsona (1979), percepcja ma charakter motoryczny. Poruszanie się obserwatora w polu wzrokowym pozwala na precyzyjne uchwycenie właści wości absolutnego i względnego dystansu wobec obiektów. Obiekty położone dalej lub też lokalizowane poza kierunkiem ruchu przybliżają się/oddalają się znacznie wolniej niż obiekty położone bliżej. Zjawisko paralaksy ruchowej umożliwia więc prostą detekcję głębi i dystansu. Gibson (1950) wykazał to, analizując zachowanie pilotów samolotów bojowych podchodzących do lądowania. Ruch obiektów jest zresztą, jego zdaniem (i nie tylko; zob. rozdz. 5.2.2), właściwością priorytetową obiektów w polu wzrokowym. Cecha ta jest rejestrowana przez specjalny rodzaj receptorów w ramach zmysłu wzroku, tj. prioreceptory. Motoryczny charakter percepcji pozwala także na wykrycie dwóch rodzajów właściwości pola percepcyjnego wyższego rzędu: (1) niezmienników (invariants) inaczej - stałości), tj. właściwości pola, które nie zmieniają się wraz ze zmianą punktu obserwacji oraz (2) zmienników (transpositions), czyli cech, które tym zmianom podlegają. Z punktu widzenia przebiegu procesu percepcji ważne są zwłaszcza niezmienniki. Gibson (1979) zdefiniował niezmiennik jako pewną liczbę własności pola percepcyjnego, która zmienia się regularnie i zgodnie z pewnymi prawami wraz ze zmianą punktu obserwacji. Podstawą do wykrycia niezmienników jest zatem zmieniająca się perspektywa. Inaczej jeszcze można niezmienniki określić jako „rzutowane” (niezależne od dystansu absolutnego) właściwości obiektów. Ta sama lokomotywa widziana z bliska
7.4. Teorie percepcji
311
i z daleka będzie miała te same właściwości w rzucie, obojętne czy tran sformowana do rzutu jest lokomotywa widziana z daleka czy z bliska. Wynika to z faktu iz wzajemne proporcje między obiektami (np. lokomotywa i otoczeniem) są stałe i niezależne od odległości punktu obserwacji. Złudzenia percepcyjne, według Gibsona, są wynikiem unieruchomienia obserwatora w jednym punkcie obserwacyjnym i przez to odebrania mu możliwości przyjrzenia się obiektowi z różnych perspektyw, tak aby możliwe było wykrycie stałości w analizowanej sytuacji percepcyjnej. Na przykład tzw. złudzenie Amesa polega na widzeniu trapeizodalnego w istocie pokoju jako prostokątnego. Złudzenie natychmiast znika, gdy obserwatorowi pozwoli się wejść do wnętrza i poruszać po tak zbudowanym pokoju (Gehringer, Engel, 1986). Percepcja wynika więc, zdaniem Gibsona, z wyuczonej umiejętności. Róż nych niezmienników, korygujących błędny obraz na siatkówce, system poznawczy uczy się przez całe życie. Gordon (1989) słusznie zauważył, iż - według autora ekologicznej koncepcji spostrzegania - nauka ta polega na nabywaniu wprawy przez mechanizmy selektywnej uwagi odnośnie do tego, na co należy nakierowywać percepcję. Dlatego ten sam zestaw bodźców może być inaczej spostrzegany w różnych okresach życia człowieka, w zależności od jego wprawy w spostrze ganiu. Ci, którzy nigdy nie mieli okazji obserwować pod różnymi kątami widzenia kolumn greckich, prawie zawsze ulegają złudzeniom optycznym, wykrywając po zorną boczną wypukłość. Złudzeniu temu można zapobiec, wprawiając obserwa tora w ruch zbliżający/oddalający od obserwowanego obiektu (tu: kolumny). Ci, którzy dzięki ruchowi własnemu już raz wykryli niezmiennik dotyczący greckiej proporcji w architekturze kolumn, są w stanie skorygować wrażenia sensoryczne odbierane przez receptory, dzięki informacji zwrotnej pochodzącej z mózgu. Ale w jaki sposób teoria ekologiczna radzi sobie z problemem klasyfikacji semantycznej w procesie identyfikacji obiektów? Gibson (1979) twierdzi, że nie tylko cechy percepcyjne (takie jak np. absolutny dystans) są dane w bez pośrednim spostrzeganiu obiektów. Także cechy związane ze znaczeniem, a przede wszystkim funkcje spostrzeganych obiektów, są bezpośrednio spo strzegane. Percepcyjnie, według Gibsona, dane są więc również afordancje, czyli „akty lub zachowania, których wykonanie umożliwiają nam pewne obiekty, miejsca lub zdarzenia” (Michaels, Carello, 1985, s. 42). W spostrzeżeniu drabiny zawarta jest możliwość wspinania się po niej, a w percepcji krzesła możliwość siedzenia na nim. Afordancje są również dane w postrzeganiu bardziej złożonych obiektów. Zdaniem Gibsona (1979, s. 139), spostrzeżenie skrzynki pocztowej zawiera w sobie również afordancję możliwości wysłania listu do innego członka tej samej społeczności (ciekawe, że tylko do takiego, który odpisuje na listy; to letter-writting human in a community with postał system). Zasadniczym problemem teorii Gibsona jest fakt, iż spostrzeganie niezmienników i wykorzystywanie informacji zwrotnej, pochodzącej z mózgu, w celu korygowania danych wzrokowych, pochodzących z obrazu na siatkówce, wydaje się procesem poznawczym, wymagającym przetworzenia dość dużych porcji informacji w jednym momencie czasu. Tymczasem, jak pokazała to Gregory (1970), mózg jest w stanie akceptować informacje z pola wzrokowego w bardzo wolnym tempie - ok. 12 bitów na 100 ms. Kwestią trudną do wyjaśnienia jest również fakt, iż, z jednej strony, Gibson traktuje postrzeganie jako proces oddolny, a z drugiej strony, jako proces korygowany odgórnie przez
312
Rozdział 7. Percepcja
trwale wyuczone niezmienniki. W zasadzie można chyba uznać, że ekologiczna koncepcja spostrzegania jest również koncepcją dwukierunkową percepcji, zaś różnica między teorią obliczeniową a stanowiskiem reprezentowanym przez Gibsona polega na odmiennym przekonaniu odnośnie do tego, co odgórnie ma wpływ na kształtowanie się spostrzeżenia (trwałe reprezentacje czy stałości percepcyjne). Ważnym wkładem Gibsona do teorii spostrzegania jest natomiast stwierdzenie, że bodziec wzrokowy zawiera w sobie więcej informacji niż się wydaje, zwłaszcza przy statycznej jego obserwacji. Wprawienie obserwato ra w ruch pozwala łatwo wykryć wiele właściwości pola wzrokowego i obiektów w nim prezentowanych, właściwości, których wykrywanie jest przez inne kon cepcje percepcji traktowane jako złożony proces realizowany na górnych piętrach przetwarzania.
7.5. Proces spostrzegania w praktyce 7.5.1. Spostrzeganie twarzy Twarz jest bodźcem specyficznym w procesie percepcji i identyfikacji obiektów (DeRenzi, 1986; Ohme, 2003). Wskazują na to badania pacjentów chorych na prozopagnozję. Nie są oni zdolni do rozpoznawania twarzy innych ludzi, a nawet czasami swojej własnej - widzianej w lustrze. Jednocześnie nie mają jednak żadnych trudności w rozpoznawaniu innych obiektów, a także kłopotów z iden tyfikacją osób na podstawie wskazówek innych niż wizualne (głos, dotyk lub imię osoby). Wyniki, dotyczące deficytów przejawianych przez pacjentów cho rych na prozopagnozję, interpretowano na korzyść tezy o wymaganej przez proces percepcyjny większej precyzji w zakresie rozpoznawania twarzy niż roz różniania innych obiektów. DeRenzi (1986) wykazał jednak, że pacjenci cier piący na prozopagnozję potrafią znakomicie rozróżniać obiekty różniące się niewielką liczbą cech kryterialnych (np. monety włoskie i inne), nadal nie radząc sobie z procesem identyfikacji zróżnicowanych pod względem wyglądu twarzy. Jak się więc wydaje, proces spostrzegania twarzy nie jest po prostu skom plikowanym procesem rozpoznawania obiektów, skomplikowanym ze względu na złożoność identyfikowanego obiektu, ale jest jakościowo swoistym innym niż rozpoznawanie pozostałych obiektów, procesem percepcyjnym. Argumentów na korzyść takiego stanowiska dostarczyli Sergent, Ohta i MacDonald (1992). Wykazali oni, że aktywność mózgu w przypadku rozpoznawania twarzy jest znacznie większa niż w przypadku rozpoznawania innych obiektów. Co więcej, w przypadku rozpoznawania twarzy i innych obiektów badacze ci zauważyli jakościowe różnice w aktywności prawej półkuli mózgowej. Półkula ta wydaje się szczególnie ważna dla procesu identyfikacji twarzy, jako że jej uszkodzenia charakteryzują właśnie pacjentów z prozopagnozją. Dlatego też Farah (1992) argumentuje na rzecz istnienia dwóch niezależ nych subsystemów rozpoznawania obiektów. Pierwszy z nich miałby charakter analityczny i rozpoznawałby obiekty przez ich dekompozycję do postaci listy cech kryterialnych. Drugi miałby charakter holistyczny - identyfikacja obiektów odbywałaby się w nim przez zestawienie obrazów sensorycznych z umysłowymi.
7.5. Proces spostrzegania w praktyce
313
System analityczny, jego zdaniem, odpowiadałby za rozróżnianie zwykłych obiektów w polu wzrokowym, zaś system holistyczny - obiektów specjalnych, właśnie takich jak np. twarze. Dodajmy, że pierwszy z wymienionych systemów funkcjonowałby zgodnie z założeniem teorii cech, zaś drugi - zgodnie z zało żeniem koncepcji modeli. Poglądy na temat rozpoznawania twarzy dobrze ilustrują spór pomiędzy koncepcjami modeli i cech dotyczący mechanizmu rozpoznawania obiektów. W koncepcjach modeli przyjmuje się, że twarz jest reprezentowana w formie obrazu o określonej rozdzielczości (Ellis, 1975). W procesie rozpoznania twarzy obraz sensoryczny jest zatem zestawiany z obrazem umysłowym, a decyzja 0 identyfikacji jest podejmowana na podstawie oszacowania przystawania obu obrazów do siebie. Koncepcje modeli mają jednak problemy z odpowiedzią na trzy zasadnicze pytania: (1) „W jaki sposób możliwe jest rozpoznawanie twarzy z dużej odległości, gdy uzyskanie wymaganej przez obraz umysłowy rozdziel czości jest niemożliwe?”; (2) „W jaki sposób możliwe jest spostrzeganie tej samej twarzy pod różnym kątem obserwacji?” oraz (3) „ W jaki sposób możliwe jest spostrzeganie tej samej twarzy w perspektywie czasowej (z wiekiem zmienia się przecież wygląd twarzy)?” Aby uratować koncepcję modeli jako wyjaśniającą proces identyfikacji twarzy, Ellis (1975) proponuje zabieg normalizacji, ale nie do końca wiadomo, na czym zabieg ten - stosowany przez spostrzegający umysł - miałby polegać. Przez normalizację Ellis rozumie wszelkie możliwe transformacje na obrazach, takie jak rotacje mentalne czy też powiększanie/pomniejszanie obrazu. Istnienie takich operacji na reprezentacjach obrazowych potwierdzono w zakresie funk cjonowania wyobraźni (Kosslyn, 1975; zob. rozdz. 2) - być może więc wyo braźnia pośredniczy w procesie identyfikacji twarzy, umożliwiając przekształce nie obrazu na siatkówce do pozycji naturalnej, w której mogłoby się odbywać zestawienie obrazu sensorycznego i umysłowego. Przyjęcie istnienia zabiegu normalizacji pozwala odrzucić dwie pierwsze z trzech wyżej zarysowanych wątpliwości. Koncepcja modeli nadal jednak nie radzi sobie z problemem czasu. Identyfikacja twarzy w perspektywie czasu jest czynnością najbardziej obarczo ną możliwością błędu w przypadku percepcji tego typu bodźców. Nie rozpozna nie po latach twarzy przyjaciela może więc wynikać z braku adekwatnego modelu w umyśle, a jej rozpoznanie może być rezultatem elastyczności posia danych modeli umysłowych. Zwolennicy koncepcji cech uważają z kolei, iż informacja konieczna do rozpoznania twarzy jest przechowywana w umyśle w formie listy cech. Ellis, Shepherd i Davies (1979) wykazali, iż poszczególne cechy pełnią znaczącą rolę w procesie rozpoznawania twarzy. Stwierdzili oni, że kiedy ludzie opisują czy jąś twarz, działają w określonym porządku. Najpierw opisywane są włosy i oczy, w drugiej kolejności nos, usta i brwi, a na samym końcu policzki i czoło. Roberts 1Bruce (1988) potwierdzili te doniesienia wykazując, że dla rozpoznania twarzy najważniejsze są rejony oczu, a najmniej istotne - rejony nosa. Jeśli jednak opisywana jest twarz znana, to w pierwszej kolejności uwzględniane są cechy wewnętrzne (oczy, nos, usta), a dopiero w drugiej - zewnętrzne (włosy, kształt głowy). W przypadku osób nieznajomych porządek opisu ulega odwróceniu najpierw analizowane są cechy zewnętrzne, a dopiero jako drugie w kolejności cechy wewnętrzne. Podobnie rzecz się ma z rozpoznaniem - bliskie nam osoby
314
Rozdział 7. Percepcja
identyfikujemy po cechach wewnętrznych, a nieznajome - po zewnętrz nych. W badaniach Malone, Morris, Kay i Levine (1982) wykazali, że proces identyfikacji twarzy osób znanych i nieznanych różni się jakościowo. Badani przez nich pacjenci charakteryzowali się albo deficytami w zakresie rozpozna wania twarzy znanych, albo mieli kłopoty z rozróżnianiem twarzy nieznanych. Jak się wydaje, zaburzeniom w obu przypadkach uległ mechanizm analizy innych cech, służących do identyfikacji. Jednakże w rozpoznawaniu twarzy istotne są nie tylko cechy, ale także re lacje, jakie pomiędzy nimi zachodzą. Young, Hellawell i Hay (1987) prezentowali osobom badanym obrazy składające się z połówek zdjęć twarzy znanych osób. Uczestnikom eksperymentu znaczną trudność sprawiło rozpoznanie tak wymie szanych fotografii, szczególnie wtedy, gdy dolna połówka - będąca fragmentem portretu innego aktora - była dobrze dopasowana do górnej części zdjęcia. Va lentine (1988) zaobserwował natomiast znaczne problemy w rozpoznawaniu twarzy na zdjęciach odwróconych do góry nogami, a Bruce i Valentine (1985) odkryli nie mniejsze kłopoty w rozpoznawaniu twarzy nawet znanych badanym osób, gdy charakterystyczne elementy tych twarzy „zamieniły się” na zdjęciu swoim naturalnym położeniem („twarze przemieszane”, np. oczy na wysokości ust, a usta zamiast brwi). Wreszcie Tanaka i Sengco (1997) zauważyli, że ma nipulacja w zakresie relacji między poszczególnymi elementami twarzy (np. zbli żenie do siebie oczu), nawet przy pozostawieniu tych elementów na swoim miejscu, powoduje także kłopoty w identyfikacji twarzy, do tej pory rozpozna wanej bez większych problemów. Jeśli jednak system poznawczy w procesie identyfikacji twarzy analizuje nie tylko cechy kryterialne, ale również relacje, jakie między nimi zachodzą, to uwzględniając liczbę charakterystycznych elementów twarzy - informacji do przeanalizowania może okazać się zbyt dużo jak na proces, który przebiega bardzo szybko. Poza kłopotami z wyjaśnieniem szybkości procesu rozpoznawa nia twarzy, koncepcje cech nie radzą sobie także z problemem percepcji twarzy w perspektywie czasu. Lista cech wyodrębniona na podstawie obrazu senso rycznego, widzianego po latach, może bowiem znacznie różnić się zarówno liczbą, jak i intensywnością w porównaniu z listą wzorcową, reprezentującą twarz w naszym umyśle (Sergent, 1984). Na przykład niektóre rysy twarzy mogą ulec zatarciu (np. wskutek tycia), natomiast inne mogą się wykształcić z upływem czasu (np. zmarszczki z powodu starzenia się). Z dwóch koncepcji identyfikacji twarzy znacznie lepiej uzasadniona wydaje się teoria cech. Wskazują na nią zwłaszcza badania dotyczące specyfiki procesu rozróżniania twarzy znajomych i obcych. Proces ten, jak wskazują badania, jest bowiem także jakościowo, a nie tylko ilościowo, odmienny w różnych warunkach percepcji, gdyż różni pacjenci przejawiają pojedyncze deficyty w zakresie roz poznawania tylko pewnych kategorii twarzy. Należy jednak podkreślić, że obie koncepcje nie potrafią odpowiedzieć na pytanie o to, w jaki sposób możliwe jest rozpoznanie twarzy nie widzianej od lat, której wygląd uległ znacznej zmianie. 7 .5 .2 . Czytanie słó w Czytanie jest złożonym procesem umysłowym, wymagającym zrozumienia. Jako takie, stanowi przedmiot badań nad przetwarzaniem języka i rozumieniem
7.5. Proces spostrzegania w praktyce
315
tekstu (por. rozdz. 13). W tym podrozdziale ograniczymy się do wybranego aspektu czytania, jakim jest spostrzeganie i rozpoznawanie słów. Oko zmienia punkt fiksacji (fixation point) mniej więcej cztery razy w ciągu sekundy (Rayner, 1997). Około 200-225 ms trwa każda kolejna fiksacja oka na materiale bodźcowym, podczas gdy 25-30 ms trwa ruch sakkadowy gałek ocznych w miejsce następnej fiksacji. Jednak już po zafiksowaniu wzroku na materiale bodźcowym fotoreceptory odbierają informacje wizualne bynajmniej nie w sposób nieprzerwany. Połowa czasu fiksacji to okres refrakcji (odpoczyn ku) - oko jest na tyle „zmęczone” wysiłkiem motorycznym związanym z wyko naniem ruchu sakkadowego, że rejestrowanie danych zmysłowych nie jest w tym czasie możliwe. Zjawisko to nosi nazwę tłumienia sakkadowego (McConkie, 1983). Okres refrakcji trwa z reguły połowę czasu każdej fiksacji. Informacje wizualne są kodowane przez oko jedynie przez ok. 100 ms podczas każdej fiksacji, co oznacza, że większość czasu pracy narządu wzroku jest przezna czona na funkcjonowanie motoryczne, a jedynie 400 ms każdej sekundy jest czasem pobierania informacji o świecie zewnętrznym. Skoro tak, to umiejętność prawidłowej fiksacji wzroku (w odpowiednim miejscu przestrzeni) wydaje się kluczowym elementem procesu spostrzegania i rozpoznawania obiektów. Wagę tej umiejętności szczególnie podkreślają dane empiryczne dotyczące przebiegu czynności czytania. Badając tę czynność Rayner, Weil i Pollatsek (1980) wykryli zjawisko asymetrii wokół punktu fiksacji. Stwierdzili oni, że obszar na lewo od punktu fiksacji jest trzykrotnie mniejszy od obszaru na prawo od tego punktu. Pollatsek, Bolozky, Weil i Rayner (1981) uzyskali podobny efekt. W ich badaniu asymetria wokół punktu fiksacji okazała się jednak odwrotna niż w poprzednim badaniu: obszar objęty wzrokiem był trzykrotnie szerszy na lewo od punktu fiksacji niż na prawo. Różnicę w wynikach udało się Raynerowi i Pollatskowi wyjaśnić na podstawie klasyfikacji osób badanych względem rodzaju pierwszego języka używanego podczas czytania. W pierwszym przypadku językiem tym był angiel ski, który wymaga czytania w kierunku od lewej do prawej strony kartki. Natomiast w drugim eksperymencie badano umiejętność czytania w języku hebrajskim, w którym porządek przetwarzania materiału werbalnego jest odwrotny (od prawej do lewej). Wyniki, które uzyskali Rayner i Pollatsek, ozna czają, że zjawisko asymetrii wokół punktu fiksacji jest powszechne, a obszar obejmowania wzrokiem jest większy zawsze w kierunku, w którym czyta osoba przejawiająca taką asymetrię. Zgodnie z efektem asymetrii wokół punktu fiksacji można przypuszczać, że w przypadku osób czytających w języku ja pońskim (choć takie badania akurat nie były prowadzone), szerszy obszar wokół punktu fiksacji powinien znajdować się poniżej tego punktu. W powyżej omawianych badaniach uczestnicy eksperymentów zawsze czytali zdecydowanie lepiej w swoim ojczystym języku niż w jakimkolwiek innym. Badania dotyczyły też wyłącznie czytania w języku ojczystym. Z kolei Inhoff (1989) wykazał, że u osób posługujących się dwoma językami, odmien nymi pod względem kierunku czytania, asymetria wokół punktu fiksacji zmienia się wraz z intensywnością praktyki czytania w danym języku. Po zmianie języka czytania (np. z angielskiego na hebrajski) musi jednak upłynąć pewna ilość czasu, zanim prawostronna asymetria zmieni się w lewostronną. Podobna asy metria wokół punktu fiksacji ma miejsce wtedy, gdy w obszarze fiksacji znajduje
316
Rozdział 7. Percepcja
się tylko jedno słowo. Wówczas prawidłowy punkt fiksacji wypada w okolicy gdzie kończy się ów wyraz, co zauważył z kolei Rayner (1979). 0 ’Reagan i Jacobs (1992) uzupełnili te spostrzeżenia o tezę, że przesunięcie punktu fiksacji względem prawidłowego położenia o jedną literę w wyrazie spowalnia proces czytania o 20 ms. Przy dłuższych wyrazach opóźnienia te mogą wynosić już nawet do 100 ms, co w przypadku czytania całych zdań może przekładać się na kilkusekundowe spowolnienie. Z kolei Rayner i Morris (1992) podjęli próbę funkcjonalnego wyjaśnienia istnienia efektu asymetrii wokół punktu fiksacji. Stwierdzili oni, że asymetria ta ułatwia poprzedzanie percepcyjne, niezbędne w procesie szybkiego i sprawnego czytania. Z punktu widzenia pojedynczej fiksacji asymetria wokół punktu fiksacji nie ma bowiem żadnego znaczenia. Podobna liczba tak samo daleko położonych obiektów z lewej i prawej strony punktu fiksacji jest równie szybko rozpoznawana. Jednak rozpoznanie obiektów położonych daleko od punktu fiksacji w kierunku czytania jest znacznie szybsze w przypadku kolejnej fiksacji, która obejmuje je już w swoim centrum. Jest tak dlatego, że w poprzedniej fiksacji obiekty te były objęte wstępną analizą percepcyjną i w kolejnej fiksacji ten wstępny etap analizy może zostać pominięty. Istnienie poprzedzania percepcyjnego (perceptual priming) w procesie czytania wykazali empirycznie Evett i Humphreys (1981). Poprzedzali oni podprogowo bodźcami werbalnymi słowa, które należało przeczytać i rozpoznać. Bodźce poprzedzające nie były semantycznie powiązane ze słowami poprzedzanymi (czasami bodźce poprze dzające były nawet bezsensownymi zbitkami liter) - jedyne, co je łączyło, to stopień podobieństwa w zakresie liter składających się na oba bodźce werbalne. W warunku pełnego poprzedzania wyraz torujący był tożsamy z torowanym, w warunku braku poprzedzania ani jedna litera bodźca poprzedzającego nie pokrywała się z literami składającymi się na wyraz poprzedzany. Evett i Humphreys wykazali, że im więcej wspólnych liter posiadały oba prezentowane bodźce, tym szybsza była reakcja na słowo torowane. Uzyskany wynik badacze ci wyjaśnili odnosząc się do koncepcji abstrakcyj nych subsystemów, odpowiedzialnych za detekcję pojedynczych liter w procesie czytania. Ich aktywizacja w trakcie poprzedzania umożliwia, według nich, szybszą identyfikację słowa poprzedzanego. Jak się wydaje, podobne zjawisko zachodzi w procesie czytania. Wprawdzie litery odległe od punktu fiksacji w kierunku czytania nie są identyfikowane w trakcie fiksacji je obejmującej, jednak na skutek recepcji tych liter dochodzi do pobudzenia subsystemów odpowiedzialnych za ich przetwarzanie. Gdy oko zmieni swój punkt fiksacji i litery te staną się obecne w centrum fiksacji, ich rozpoznanie będzie ułatwione (zjawisko facylitacji), właśnie dzięki uprzedniej ich aktywacji, która miała miejsce w już zaistniałej fiksacji. Zjawiska asymetrii wokół punktu fiksacji i poprzedzania percepcyjnego w trakcie czytania wyraźnie świadczą na korzyść tezy, iż czytanie jest czyn nością wykorzystującą oddolne mechanizmy spostrzegania (od percepcji liter do czytania wyrazów i zdań). Pojawiły się jednak również argumenty wskazujące na to, że czynność czytania wymaga także odgórnych mechanizmów spostrze gania. Ważne w tym względzie są badania Reichera (1969), który wykazał istnienie efektu przewagi słowa nad literami (word superiority effect). W jego eksperymencie osoby badane weryfikowały występowanie konkretnej litery na
7.6. Podsumowanie
317
określonej pozycji w prezentowanym im wyrazie (np. czy czwartą literą w wy razie „PRACA” jest litera „C”). W warunku pierwszym Reicher prezentował badanym słowa, w warunku drugim - werbalizowalne zbitki liter, które nic nie znaczyły, natomiast w warunku trzecim - niewerbalizowalne, losowe zbitki liter. Gdyby proces czytania był tylko procesem oddolnym, to rodzaj etykiety werbalnej, w odniesieniu do której należałoby podjąć decyzję dotyczącą jednej z jej liter składowych, nie miałby żadnego znaczenia. Okazało się jednak, że najkrótszy czas reakcji uzyskali badani w warunku sensownych słów - tak jakby znajomość sensu całego słowa pomagała w identyfikacji jego składowych liter. Odgórny charakter procesu czytania wykazał także Frisby (1979). W jego eksperymencie osoby badane w trakcie czytania nie dostrzegały braku poje dynczych liter, a nawet całych słów, uzupełniając tak zdegradowany komunikat do jego całości, zgodnie z zasadami koncepcji postaciowych spostrzegania. Na przykład, badani nie byli w stanie stwierdzić braku litery „p” w wyrazie „spring” (prezentowano wyraz „sring”), gdy komunikat dotyczył repertuaru teatru w sezonie wiosennym. Można zatem stwierdzić, iż czytanie angażuje zarówno oddolne, jak i od górne mechanizmy spostrzegania. Zjawiska asymetrii wokół punktu fiksacji i poprzedzania percepcyjnego wyraźnie wskazują na zależność efektywności czytania od rejestracji sensorycznej. Wiele ćwiczeń z zakresu nauki szybkiego czytania polega na przyspieszeniu procesu zmiany punktu fiksacji czy też roz szerzeniu obszaru fiksacji w kierunku czytania, tak aby objąć efektem poprze dzania większą liczbę liter i tym samym większą partię tekstu. Efektywność czytania zależy jednak również od procesów odgórnych. Im większą liczbą etykiet werbalnych dysponuje system poznawczy osoby czytającej, tym łatwiej jest mu przewidzieć znaczenie komunikatu. Pewne ćwiczenia z zakresu szybkiego czytania uczą pomijania nieistotnych fragmentów komunikatu, a więc takich, których czytający może się domyślić albo na podstawie wiedzy ogólnej, albo na podstawie konstrukcji całego komunikatu.
7.6. Podsumowanie Treść tego rozdziału powinna skłonić nas do wniosku, że świat nie jest taki, jakim się wydaje. Otaczająca na rzeczywistość, np. przedmioty, zdarzenia lub inni ludzie, są źródłem bodźców, ponieważ emanują fizyczną energią w postaci fal optycznych (wzrok), fal akustycznych (słuch), cząsteczek chemicznych (smak, węch) lub ucisku mechanicznego (dotyk, ból). Energia ta wyzwala zmiany w wyspecjalizowanych receptorach i daje początek procesowi spostrze gania. Istota tego procesu sprowadza się do daleko idących przekształceń pierwotnej energii zmysłowej niosącej informację. Owo przetwarzanie informa cji skutkuje powstaniem perceptu, czyli spostrzeżenia. Nie znaczy to, że proces przetwarzania informacji w tym momencie się kończy, ponieważ percepcja stanowi podłoże i konieczny warunek innych procesów poznawczych, takich jak pamięć, myślenie, przetwarzanie języka itd. Nie znaczy to również, że nasze spostrzeżenia są zasadniczo błędne i nieadekwatne. One są tylko niedokładne i wybiórcze.
318
Rozdział 7. Percepcja
Spostrzeżeniu zazwyczaj towarzyszy subiektywne doznanie, choć istnieją przypadki percepcji bez udziału świadomości. W każdym razie nie wolno nam utożsamiać percepcji ze światem subiektywnych doznań zmysłowych. Owe doznania w pewien sposób reprezentują zewnętrzną rzeczywistość, ale są koń cowym efektem długiego i skomplikowanego procesu przetwarzania informacji. Z tego punktu widzenia percepcja wcale nie jest prostym procesem poznaw czym. Jeśli zaliczyliśmy ją do tej kategorii, to dlatego, że złożoność funkcji psychicznych jest zawsze relatywna, a inne procesy - omawiane w rozdz. 10-13 - są w porównaniu ze spostrzeganiem jeszcze bardziej złożone.
R o zd zia ł
Pamięć
Natura pamięci
320
Rodzaje i funkcje pamięci
320
Blokowe (magazynowe) modele pamię ci 326
Model długotrw ałej pam ięci roboczej Ericssona i Kintscha 358 Pamięć prospektywna
360
Systemy pamięci trwałej
363
Procesualne modele pamięci
333
Pamięć sem antyczna
Systemy pamięci przemijającej
340
Pamięć epizodyczna
Pamięć sensoryczna
340
Pamięć krótkotrwała
343
Pamięć robocza: w ielokom ponentow y model Baddeleya 349 Pamięć robocza: model aktywacyjny Cowana 355
363 366
Pamięć autobiograficzna Podsumowanie
371
369
Pamięć jest zdolnością do przechowywania informacji i późniejszego jej wy korzystania. Z innego punktu widzenia pamięć to zespól procesów poznaw czych, zaangażowanych w nabywanie, przechowywanie i późniejsze odtwa rzanie informacji. Pamięć przemijająca przechowuje informacje w sposób nietrwały, czyli w stosunkowo krótkim czasie, co nie jest jej wadą, lecz wynika z pełnionych przez nią funkcji. Pamięć trwała przechowuje informacje bez wyraźnych ograniczeń czasowych. „Głowa bez pamięci to twierdza bez garnizonu”, powiedział Napoleon Bona parte, pokazując w ten sposób, jak bezbronny byłby nasz umysł bez zasobów pamięci. Wszystkie procesy poznawcze, od najprostszych, jak odbiór wrażeń, do najbardziej złożonych, jak rozwiązywanie problemów, zależą od pamięci, ale też na nią wpływają. Bez pamięci nie byłoby możliwe poznanie, dlatego wiele modeli umysłu to w gruncie rzeczy modele pamięci (zob. rozdz. 1). W wąskim ujęciu pamięć to system zapisu, przechowywania i odtwarzania informacji w celu jej przyszłego użycia. Dzięki tak rozumianej pamięci możemy np. przygotować się do egzaminu lub rozmowy kwalifikacyjnej. W szerokim rozumieniu pamięć jest systemem przechowywania informacji bez względu na cel, zamiar czy intencję. Jest odpowiedzialna za przechowywanie wszelkich informacji, nie zależnie od formatu lub źródła pochodzenia. Przechowuje informacje w czasie ultrakrótkim (mniej niż jedna sekunda) lub przez cale życie człowieka. Prze chowuje wiedzę o ogólnie znanych faktach, o indywidualnych doświadczeniach i o procedurach. Zapisuje wszelkie ślady przeszłych doświadczeń, nawet te, z których człowiek nie zdaje sobie sprawy. Mając na warsztacie zjawisko o tak podstawowej funkcji, psycholog po znawczy musi odpowiedzieć sobie na następujące pytania: „Czy pamięć jest systemem jednolitym?” „Jakie funkcje pełnią procesy i struktury pamięci w re gulacji życia psychicznego człowieka?” „Czy pamięć jest ograniczona w swej pojemności, a jeśli tak, to czy dotyczy to wszystkich jej rodzajów?” Na te pyta nia będziemy szukać odpowiedzi z niniejszym rozdziale.
8.1. Natura pamięci 8.1.1. Rodzaje i funkcje pamięci Schacter i Tulving (1982) uważają, że pamięć człowieka nie jest systemem mo nolitycznym. Pod tym pojęciem kryje się wiele odrębnych, ale wewnętrznie zintegrowanych systemów. Ich wspólną cechą jest funkcja, jaką pełni pamięć jako całość. Stwarza mianowicie możliwość wykorzystania przechowywanej w niej informacji. Funkcja ta może być realizowana tym skutecznej, im bardziej efektywna jest filogenetyczna zdolność naszego umysłu do zapamiętywania, przechowywania i odpamiętywania informacji. Norman (1970) doszukał się ponad dwudziestu rodzajów pamięci (dziś z pewnością byłoby ich jeszcze więcej). Przyjmując za podstawę rozróżnienia kryterium językowe, osobno potraktował każde pojęcie, zawierające w nazwie
8.1. Natura pamięci
’ i ;
i | I j
t
321
rzeczownik „pamięć” oraz jakiś przymiotnik (por. Shettleworth, 1993). Takie postępowanie było o tyle racjonalne, że nie ma zgody wśród autorów co do sposobu kategoryzacji, a co za tym idzie liczby systemów pamięci. Z drugiej jednak strony, wprowadzenie jakiegoś terminu i posługiwanie się nim nie jest równoznaczne z istnieniem odpowiadającego mu systemu pamięciowego. Przykładowo, pamięć werbalna jest swego rodzaju abstraktem zbudowanym ze względu na formalne kryterium przechowywanego materiału. Materiał werbalny może być jednak przechowywany w pamięci krótko- albo długotrwałej. Po dobnym abstraktem jest termin „pamięć sensoryczna”, bowiem istnieją pod stawy, aby twierdzić, iż z każdym ze zmysłów związany jest odrębny system ultrakrótlcotrwałego przechowywania informacji. Poza tym wiele określeń pa mięci to synonimy, np. pamięć krótkotrwała i robocza. Odpowiadają im różne koncepcje teoretyczne, lecz ich podstawowe funkcje są podobne. Aby uporządkować „przestrzeń problemu” Endel Tulving (1984) zapropo nował pięć kryteriów, które muszą być spełnione, aby mówić o odrębności systemów pamięci. Zdaniem autora systemy są odrębne, jeśli: • mają różne funkcje behawioralne i kognitywne oraz są wyspecjalizowane w przetwarzaniu różnych rodzajów informacji, • funkcjonują wedle różnych reguł, • mają różne podłoże neuronalne, • pojawiają się w różnym czasie w rozwoju onto- i filogenetycznym, • różnią się formatem reprezentowania informacji. Innymi słowy, system pamięciowy miałby być definiowany ze względu na mechanizmy mózgowe, sposób reprezentacji nabywanej, przechowywanej i od twarzanej informacji oraz reguły jej przetwarzania. Powyższe kryteria wydają się tak restrykcyjne (por. Sherry, Schacter, 1987; Nadel, 1992; Schacter, Tulving, 1994), że wiele współczesnych wielokomponentowych modeli pamięci ich nie spełnia. Poniżej krótko scharakteryzujemy systemy pamięci wyodrębnione ze względu na różne kryteria. Szczegółowy opis tych systemów, wraz z propozycjami teoretycznymi i wynikami badań, przedstawimy w dalszych częściach rozdziału. Klasyczny podział pamięci, wywodzący się z blokowego (magazynowego) modelu Atkinsona i Shiffrina (1968, zob. rozdz. 8.1.2), oparty został na kry terium czasu przechowywania informacji1. Ze względu na to kryterium wy różniono trzy systemy: magazyn sensoryczny (sensory storage), krótkotrwały (short term storage, STS) i długotrwały (long term storage, LTS). Każdy z nich ma inne funkcje w procesie przetwarzania informacji: od fazy percepcji bodźców pochodzących ze środowiska, poprzez krótkotrwałe przechowanie i udostępnie nie ich wyższym procesom poznawczym, aż po ich utrwalenie w LTS. Magazyn sensoryczny jest specyficzny dla powiązanego z nim zmysłu, np. wzroku, słuchu, węchu. Podstawową funkcją każdego z nich jest przetrzymanie bodźca przez krótki okres (np. maksymalnie kilkaset ms w przypadku pamięci ikonicznej, 1 Schacter i Tulving (1994) uważają, że model Atkinsona i Shiffrina jest rozwinięciem modelu Waugh i Normana (1965), którzy jako pierwsi rozróżnili pamięć pierwotną (primary), czyli krótko trwałą, i wtórną (secondary), czyli długotrwałą. Jednak model Atkinsona i Shiffrina, jako bardziej rozbudowany i szczegółowy, pełniej oddaje istotę klasyfikacji pamięci ze względu na kryterium czasu przechowywania.
322
Rozdział 8. Pamięć
związanej ze zmysłem wzroku) w kodzie analogowym w stosunku do modalności zmysłowej, którą ów bodziec dociera do systemu poznawczego. Do magazynu sensorycznego trafia cała informacja o sytuacji bodźcowej, zwykle bardzo złożonej. Jego pojemność, szczególnie w przypadku pamięci ikonicznej, musi być ogromna, a w każdym razie większa niż STS. Nie ma jednak zgody nie tylko co do tego, jaka jest pojemność każdego z magazynów, ale również w jakich jednostkach powinno się ją wyrazić. Ponieważ funkcjonowanie pamięci sensorycznej jest całkowicie automa tyczne, jej zawartość nie podlega kontroli wolicjonalnej (chyba, że za kontrolę uznamy np. zamknięcie oczu, blokujące percepcję bodźców pochodzących z oto czenia). Nie oznacza to jednak, że nie można fenomenologicznie doświadczyć jej istnienia. Każdy wie, że kiedy nocą zgasimy światło, to jeszcze przez krótką chwilę „widzimy” obraz pomieszczenia, w którym przebywamy. Magazyn pamięci krótkotrwałej charakteryzuje się zupełnie innymi właści wościami, mimo że przechowuje informacje, które dotarły do niego m.in. z magazynów sensorycznych. Na jego zawartość może składać się nie tylko wyselekcjonowana stymulacja bodźcowa, ale również informacja przywołana z LTS, albo efekty bieżącego przetwarzania informacji (np. wynik zsumowania dwóch wartości liczbowych). Początkowo zakładano, że STS posługuje się wyłącznie kodem werbalnym, czy wręcz fonologicznym, a mechanizm pod trzymywania informacji w niej zawartych wykorzystuje czynność bezgłośnego powtarzania (maintenance rehearsal). Współcześnie funkcjonuje kilka konku rujących modeli tego mechanizmu, jednak każdy z nich dopuszcza możliwość obecności w STS różnych kodów reprezentacji informacji, w tym niewerbal nego, np. dotyczącego relacji przestrzennych między obiektami. Problem w tym, że magazyn pamięci krótkotrwałej jest mało pojemny i łatwo ulega przeciążeniu. Wiadomo ponadto, że pojemność ta jest wyraźnie zróżnicowana indywidualne. W życiu codziennym każdy z nas nauczył się optymalnie wykorzystywać dostępną mu pojemność STS, a mimo to próba krótkotrwałego przechowania numeru telefonu poznanej właśnie koleżanki albo rejestracji pojazdu uciekają cego z miejsca wypadku może być zadaniem powodującym jego przeciążenie. Czas przechowywania informacji w STS szacowany jest w przedziale od kilku do kilkudziesięciu sekund. W optymalnych warunkach - kiedy mało pojemny STS nie ulega przeciążeniu - jest to czas wystarczający do wykonania często bardzo złożonych operacji poznawczych, np. wyciągania wniosków z przesłanek w zadaniach dedukcyjnych (por. rozdz. 10.7.2, ramka 10.2). Często jednak jest on niewystarczający, co w połączeniu z ograniczoną pojemnością STS stanowi źródło różnorodnych błędów poznawczych. Podstawową funkcją STS jest zatem przechowanie informacji w czasie niezbędnym do jej przetworzenia zgodnie z celem, jaki w danym momencie realizujemy. Celem tym może być dobiegnięcie do telefonu, aby wystukać numer telefonu, który nie jest przechowywany w pamięci długotrwałej, rozwiązanie zadania z testu inteligencji Ravena, czy utrwalenie w LTS nazwisk klasyków badań nad pamięcią. Magazyn pamięci długotrwałej charakteryzuje się najdłuższym czasem przechowywania informacji, mierzonym niekiedy w perspektywie lat. O sporach dotyczących sposobu kodowania informacji w pamięci pisaliśmy przy okazji problemu reprezentacji trwałych, np. pojęć czy wiedzy (zob. rozdz. 3 i 4). Ze wszystkich trzech systemów pamięci obecnych w koncepcji Atkinsona i Shif-
8.1. Natura pamięci
323
frina, pamięć długotrwała wykazuje największe zróżnicowanie zarówno co do rodzajów, jak i funkcji. Szczegółowo zajmiemy się nimi później. Jednak wspólną funkcją wszystkich rodzajów pamięci trwałej jest umożliwienie skutecznej adaptacji jednostki do środowiska, szczególnie w dłuższej perspektywie czasowej. Dzięki różnym rodzajom wiedzy, przechowywanej w systemach LTS, możliwe jest zróżnicowanie i elastyczność sposobów owej adaptacji. Wiedza semantyczna, umiejętności proceduralne i gromadzenie doświadczeń osobistych w różny spo sób służą temu przystosowaniu, doskonale uzupełniając się wzajemnie. Rozróżnienie między systemami pamięci, dokonane na podstawie modelu Atkinsona i Shiffrina, nie ogranicza się wyłącznie do kryterium czasu przecho wywania. Wspomniano już o innych różnicach dotyczących pojemności i formy reprezentacji informacji. Różnice między różnymi systemami dotyczą ponadto sposobów kodowania, przechowywania, wydobywania i zapominania informa cji, a także możliwości sprawowania kontroli nad funkcjonowaniem poszcze gólnych magazynów. Zgromadzono również pewną liczbę dowodów neurobiologicznych przemawiających za ich rozłącznością. Do tych kwestii powrócimy w rozdz. 8.1.2. Bardziej szczegółowych rozróżnień rodzajów pamięci długotrwałej doko nano w oparciu o różnice w sposobach zapamiętywania, przechowywania i odpamiętywania informacji. Istotą podziału pamięci trwałej w tym ujęciu były pierwotnie różnice w zakresie tych trzech podstawowych faz procesu pamię ciowego, w zależności od rodzaju przetwarzanej informacji. Twierdzi się, że każda z faz ma charakter procesualny, co wydaje się oczywiste w przypadku zapamiętywania i odpamiętywania, o czym wspominaliśmy. Ale również prze chowywanie ma charakter procesualny, co oznacza, że w tej pozornie statycznej fazie zawartość pamięci może być modyfikowana. Po pierwsze, o procesualnym charakterze tej fazy świadczy zjawisko zapominania. Różne mechanizmy poznawcze i neuronalne powodują „zacieranie się” śladów pamięciowych lub utratę dostępu do nich. Po drugie, używanie informacji, nawet bez modyfikacji jej treści czy relacji względem posiadanej wiedzy, powoduje lepsze utrwalenie materiału (Ebbinghaus, 1885/1913). Częściej jednak użycie informacji wiąże się z jej rekodowaniem (Tulving, 1976a), czyli modyfikacją zapisu pamięciowego w związku z nowo napływającą informacją, albo procesami inferencji z wcześniej nabytą wiedzą. Proces rekodowania może wpływać zarówno na treść zapisu pamięciowego, jak i na związki, w które wchodzi on z innymi zapisami. Wpływ ten może być jednak wybiórczy. Przykładowo, informacja, że woda mineralna „Żywiec Zdrój” nie jest produkowana w Żywcu, a w Cięcinie, może wpłynąć jedynie na treść zapisu. Jeśli nie posiadamy wystarczającej wiedzy o różnicach, np. w składzie, walorach zdrowotnych czy choćby czystości wód mineralnych pochodzących z tych dwóch źródeł, nie zmienią się relacje pojęcia wody mine ralnej „Żywiec Zdrój” do innych obszarów naszej wiedzy, systemu przekonań czy nawyków. Z kolei, jeśli dowiemy się, że siostra Zosi - Ola - wróciła z zagranicy i ponownie zamieszkały razem, prawdopodobnie zmianie ulegnie jedynie relacja, która aktualnie je łączy. Nie zmienią się natomiast właściwości charakteryzujące nasze pojęcia Oli i Zosi. Za najogólniejszą klasyfikację rodzajów pamięci ze względu kryteria prze biegu trzech faz pamięciowych uznać można podział wprowadzony przez Squire’a (1986; 1994; Squire, Zola-Morgan, 1991). Ma on charakter głównie
324
Rozdział 8. Pamięć
porządkujący: autor, odwołując się do znanych wcześniej podziałów, dokonał ich klasyfikacji, uwzględniając relacje, które zachodzą między różnymi rodza jami pamięci (zob. ryc. 8.1). Podstawowy podział rodzajów pamięci odwołuje się koncepcji wiedzy według Ryle’a (1949), zaadaptowanej do badań nad pamięcią przez Andersona (1976). Squire czyni więc rozróżnienie na wiedzę deklara tywną i proceduralną. Autor zauważył jednak, że w kontraście do wiedzy deklaratywnej, umiejscowić można nie tylko proceduralne nawyki i umiejęt ności, tradycyjnie ujmowane pod pojęciem wiedzy proceduralnej. Również inne formy nabywania albo modyfikacji zapisów w pamięci, tj. efekty poprzedzania, warunkowania klasycznego czy nieasocjacyjnego uczenia się (np. habituacji), mają pewną wspólną właściwość, która charakteryzuje również wiedzę proceduralną. Wszystkie one mają mianowicie postać niedeklaratywną, co oznacza trudność w zakresie werbalizacji treści wiedzy. Squire i Zola-Morgan (1991) dokonali również zabiegu redukcji różnorodności rodzajów pamięci, wskazując na podobieństwo pamięci deklaratywnej do jawnej, a pamięci niedeklaratywnej do ukrytej. pamięć
deklaratywna (jawna)
niedeklaratywna (niejawna)
umiejętności i nawyki
poprzedzanie2 warunkowanie2 nieasocjacyjne klasyczne uczenie się (habituacja, sensytyzacja)
Ryc. 8.1. Klasyfikacja rodzajów pamięci wg Squire’a i Zola-Morgan (1991). Za: Schacter, Tulving, 1994, s. 204.
Squire zdawał sobie sprawę z tego, że kategoria „pamięć niedeklaratywna” jest niejednorodna (Squire, Zola-Morgan, 1991). Właściwie poza trudnością w za kresie werbalizacji zawartości różnych rodzajów pamięci niedeklaratywnej, reszta ich właściwości jest bardzo zróżnicowana. Co więcej, trudność ta nie oznacza, że werbalizacja jest zupełnie niemożliwa, o czym pisaliśmy w rozdz. 4. Możliwy jest też transfer między wiedzą deklaratywną i proceduralną, bez utraty możliwości werbalizacji reguł opisujących procedury (zob. proceduralizacja wg Andersona, 1981a; rozdz. 4.3.2). Podważono również założenie o niemożności werbalizacji wiedzy nabywanej np. w uczeniu się mimowolnym, należącym, według Squire’a, do zakresu kategorii zjawisk z zakresu pamięci niedeklaratywnej. Dalej Squire rozróżnia dwa typy wiedzy deklaratywnej, odnoszące się do faktów i wydarzeń. Odpowiadają one pamięci semantycznej i epizodycznej, według podziału wprowadzonego przez Tulvinga (1972). Pamięć semantyczna 2 Klasyfikację Squire’a podajemy za oryginałem, chociaż, według nas, poprzedanie i warun kowanie to nie rodzaje pamięci, lecz procedury, w wyniku których może powstać zapis pamięciowy.
8.1. Natura pamięci
325
obejmuje specyficzną, stosunkowo łatwą do werbalizacji wiedzę ogólną, oder waną od kontekstu (zob. rozdz. 4.2.2 i 8.3.1). Jest rodzajem „umysłowego tezaurusa, zorganizowanej wiedzy, jaką jednostka posiada o słowach i innych symbolach werbalnych, ich znaczeniach i referencjach, relacjach miedzy nimi oraz o regułach, formułach i algorytmach manipulacji tymi symbolami, pojęciami i relacjami” (Tulving, 1972, s. 386). Z kolei pamięć epizodyczna dotyczy „in formacji o czasowo umiejscowionych epizodach i wydarzeniach oraz czasowo-przestrzennych relacjach między nimi” (Tulving, 1972, s. 385). Możliwość ich werbalizacji zależy od sprawności posługiwania się językiem i od poziomu szcze gółowości zapisu. Niektórzy badacze przyjmują, że dzieci gromadzą wiedzę epi zodyczną już w okresie poprzedzającym nabycie umiejętności posługiwania się językiem. Student, który wysłucha niezrozumiałego dla siebie wykładu, również zgromadzi wiedzę epizodyczną, jednak możliwość jej zwerbalizowania, podobnie jak przekazanej na wykładzie wiedzy semantycznej, będzie ograniczona. Zapisy w pamięci epizodycznej uwzględniają całe bogactwo kontekstu informacji, czyli jej umiejscowienie w czasie i przestrzeni oraz związki przy czynowo-skutkowe między różnymi wydarzeniami. Wiedza epizodyczna, podob nie jak wiedza semantyczna, może być łączona w większe struktury, jak np. historia jakiejś afery z życia politycznego. Różne informacje, pozyskiwane nawet w długiej perspektywie czasu, mogą zostać połączone w spójną całość. Upo rządkowaniem tej całości rządzą odkrywane związki przyczynowo-skutkowe, a kodowanie informacji obywa się z uwzględnieniem osi czasu. Elementem tego zapisu może stać się kontekst pozyskania informacji, np. jej źródło, oceniane jako mniej lub bardziej wiarygodne. Specyficzną odmianą pamięci epizodycznej są zapisy wydarzeń, w których sami braliśmy udział. Tego typu wydarzenia kodowane są w tzw. pamięci autobiograficznej. Dla uczestników wspomnianej afery, wydarzenia z nią związane przynajmniej w części będą miały postać autobiograficzną, podczas gdy dla dowiadujących się o niej z mediów obywateli - wyłącznie epizodyczną. Wiedza zawarta zarówno w pamięci epizodycznej, jak i autobiograficznej jest zapisem tego typu konkretnych wydarzeń. Natomiast pamięć semantyczna obejmuje wiedzę, dla której kontekst pozyskania jest nieistotny, dlatego zapis pamięciowy zazwyczaj go nie zawiera. Złożoność ludzkiego umysłu powoduje, że zapisy w pamięci semantycznej i epizodycznej mogą się przenikać. Przykładowo, jako dziecko mogliśmy się dowiedzieć, że hejnał mariacki byłby słyszalny na krakowskich błoniach, gdyby nie Kopiec Kościuszki, uniemożliwiający swobodne rozchodzenie się dźwięku z Rynku. Wiedza ta mogła zostać włączona w struktury wiedzy semantycznej, podobnie jak to, że 2 + 2 = 4. Jednak kiedy dowiedzieliśmy się, że Kopiec Kościuszki nie stoi na drodze rozchodzenia się dźwięków hejnału z Wieży Mariackiej, wiedza ta została zmodyfikowana (np. na błoniach nie słychać hejnału, gdyż jest zbyt daleko od Rynku), a historia, raczej jako anegdota, jak zostaliśmy podstępnie oszukani, mogła trafić do pamięci epizodycznej. Niektóre mnemotechniki, wymyślone w celu ułatwienia zapamiętywania wiedzy seman tycznej, odwołują się do metody kodowania informacji w pamięci epizodycznej albo do utrwalonych w niej zapisów (zob. rozdz. 9.1.4). Tak zwana metoda miejsc polega na nałożeniu nabywanej wiedzy na dobrze utrwalony zapis autobiograficzny, związany z lokalizacją przestrzenną charakterystycznych obiektów.
326
Rozdział 8. Pamięć
Podstawą rozróżnień dokonanych przez Squire’a - obok treści podlegają cych kodowaniu - jest sposób zapamiętywania, przechowywania i odpamiętywania zapisów pamięciowych. Kodowanie informacji w pamięci deklaratywnej odbywa się poprzez włączanie nowej informacji w struktury wiedzy, co do konuje się na drodze uczenia się jawnego. W przypadku pamięci semantycznej przechowywane są symboliczne reprezentacje wiedzy ogólnej. Proces zapamię tywania musi zatem uwzględniać sposób tworzenia tego typu reprezentacji oraz kształtowania związków semantycznych z posiadaną już wiedzą. W pamięci epizodycznej przechowywane wydarzenia kodowane są bezpośrednio, w takiej postaci, w jakiej zostały spostrzeżone, z całym bogactwem kontekstu, np. za pachów towarzyszących wczorajszej kolacji. Sposób reprezentowania informa cji również zawiera relacje między nimi, ale mają one przede wszystkim charakter uporządkowania przyczynowo-skutkowego. Wydobycie wiedzy dekla ratywnej ma charakter wolicjonalny i polega na jej werbalizacji, bo przecież dzięki językowi została zakodowana. Mechanizmy wydobycia różnią się w przy padku pamięci semantycznej i epizodycznej, jednak wspólną ich właściwością jest wykorzystanie relacji między elementami zakodowanej informacji. Z kolei wszelkie formy pamięci niedeklaratywnej są nabywane na drodze wielokrotnego powtarzania czynności (w wypadku procedur) albo uczenia się mimowolnego. Ich reprezentacja, w postaci programów czy systemów reguł, jest zapisem sekwencji działań, wyzwalanych w pewnym kontekście. Świadomość nie jest niezbędna do wydobycia tej wiedzy, bowiem jest ona uruchamiana automatycznie, w związku z zainicjowaniem dobrze nam znanej czynności.
8 .1 .2 . Blokowe (magazynowe) m odele pamięci Pojęcie „blokowe” w odniesieniu do pamięci, czy - ogólnie - przetwarzania informacji, oznacza pewną metaforę rozumienia struktury i funkcji systemu po znawczego człowieka. Jeśli chodzi o strukturę, oznacza ono wyraźną jej modutowość: system poznawczy składa się z pewnej liczby modułów o wyspecjalizo wanych funkcjach. Przetwarzanie informacji polega na przesyłaniu efektów pracy jednego modułu do kolejnego w ściśle określonej sekwencji. Z tego względu przetwarzanie informacji, w tej metaforze, ma charakter sekwencyjny: przetworzenie informacji w danym module możliwe jest po otrzymaniu kompletu danych z modułu poprzedzającego. Przetwarzanie odbywa się więc „krok po kroku”, od wczesnych do późnych faz przetwarzania informacji (por. Neisser, 1967). Metafora blokowa wywodzi się z działania systemów kom puterowych, które początkowo składały się z odrębnych modułów, przetwa rzających informację sekwencyjnie, według określonych algorytmów. W modelach blokowych pamięć rozumiana jest jako magazyn, a właściwie system wielu magazynów. Odrębne właściwości pamięci wyjaśnia się istnieniem osobnych magazynów, wyspecjalizowanych w przechowywaniu określonej informacji. Od początku magazyny rozumiane były jako hipotetyczne konstrukty teoretyczne, a nie realnie istniejące struktury fizjologiczne. Jednak me tafora magazynu jako pojemnika o względnie stałych parametrach (np. pojem ności), biernie przechowującego zawarte w nim informacje, znalazła swoje odbicie w teoriach pamięci.
8.1. Natura pamięci
327
Atkinson i Shiffrin (1968, 1971) zaproponowali model, w którego skład wchodziły trzy magazyny pamięciowe: sensoryczny, krótkotrwały i długotrwały (zob. rozdz. 1.3.1, ryc. 1.3). Magazyny, ze względu na odmienne funkcje, umiejscowione zostały w różnych fazach procesu przetwarzania informacji. Dane pochodzące ze środowiska, po zarejestrowaniu przez zmysły, przez bardzo krótki czas utrzymywane są w jednym z systemów pamięci sensorycznej (bądź wielu, jeśli informacja jest kombinacją wielu modalności). Dzięki procesom uwagowym część tych danych przenoszona jest do STS, gdzie procesy kontrolne decydują o sposobie ich wykorzystania. Informacja ta może być użyta w procesie sterowania zachowaniem, albo - dzięki powtarzaniu - zostać włą czona do jednego z systemów pamięci długotrwałej. Transfer informacji z STS do LTS jest relatywnie wolny. O jego ograniczeniach decyduje zarówno cha rakter samego zapisu w LTS, polegający na uwzględnieniu jego relacji do innych zapisów, jak i ograniczony czas przebywania informacji w STS. Może się więc zdarzyć, że informacja zanika z STS, zanim zostanie zakodowana w LTS. Pamięć krótkotrwała jest również miejscem, do którego przywoływane są informacje z LTS. Przywołanie wymaga aktywacji odpowiednich zapisów z ma gazynu pamięci trwałej, dokonujących się dzięki użyciu strategii wydobycia (jednej z funkcji kontrolnych STS). Innymi słowy, pamięć krótkotrwała nie tylko stanowi „pole”, w którym chwilowo przechowywane są informacje przy wołane z LTS, ale dzięki procesom kontrolnym aplikuje znane jednostce strategie. O sprawności korzystania z zasobów LTS decyduje efektywność organizacji kodowania materiału oraz jego wydobywania. W późniejszych modyfikacjach modelu Shiffrin ze współpracownikami (Shiffrin, Atkinson, 1969; Shiffrin, Geisler, 1973) starali się wyeliminować po ważny mankament pierwszej wersji modelu. Chodziło o zarzut dotyczący możliwośęi włączenia do magazynu STS treści bez pośrednictwa LTS. Ponieważ zakładano, że treści te mają co najmniej postać akustyczną, jeśli nie werbalną, muszą więc podlegać wcześniejszej obróbce z udziałem reprezentacji poznaw czych. Aby informacja sensoryczna mogła zostać zwerbalizowana, konieczne jest jej wcześniejsze rozpoznanie, co - jak wiadomo - nie może odbyć się bez udziału trwałych wzorców reprezentacji. Dlatego też autorzy zamienili w swoim modelu kolejność dwóch bloków: STS i LTS. Według nowej wersji wyselek cjonowana informacja sensoryczna kodowana jest bezpośrednio w pamięci długotrwałej, co również budzi pewne wątpliwości. Innym interesującym modelem blokowym pamięci jest koncepcja Lehrla i Fischera (1988). Autorzy prowadzili badania mające na celu dokładne oszacowanie ograniczeń przetworzeniowych systemu poznawczego człowieka. Przyjęli, że procesy przetwarzania informacji powinny podlegać pomiarowi głównie w jednostkach czasu (sekundy) i ilości informacji (bity). Według Lehrla i Fischera (1988), system percepcyjny człowieka przetwarza w przybliżeniu 109-1011 bitów informacji na sekundę, uwzględniając stymulacje pochodzące ze środowiska zewnętrznego i z samego organizmu (zob. ryc. 8.2). Z tego, uwzględniając wszystkie kanały sensoryczne, obróbce percepcyjnej podlega ok. 107 bitów w ciągu sekundy. Informacja rejestrowana za pomocą różnych analizatorów podlega integracji, a następnie selekcji. Procesy te zachodzą na materiale sensorycznym zawartym w strukturze zwanej „przechowalnią” (accommodator), która połączona jest z pamięcią długotrwałą (long term
328
Rozdział 8. Pamięć
przechowalnia
15 bit/s
(accomodator)
percepcja
^ 107
l
.
L
I
I \ zmysły
STM ~ 80 bit
konsolidacja 0,01 - 1 bit/s
inne kanały sensoryczne I l \
106 4x105 5 x 103 103
W
10
~107 bit/s
13 bit/s
L 109-1011bit/s
ZACHOWANI E
Ryc. 8.2. Model przetwarzania informacji z uwzględnieniem struktur poznawczych, kierunków przepływu informacji oraz przepustowości systemu, (za: Lehrl, Fischer, 1988, s. 885).
memory, LTM). Następnie informacja przesyłana jest do pamięci krótkotrwałej (short term memory, STM), którą scharakteryzowano za pomocą czterech parametrów: (1) szybkość strumienia informacji na wejściu do STM (Cu), który wynosi 15 ± 3,1 bit/s; (2) czas przechowywania informacji w STM (TR), tj. 5,4 ± 0,8 s; (3) całkowitą pojemność STM (K k = CK x TR), czyli ok. 80 bitów oraz (4) tempo konsolidacji, czyli transferu informacji z STM do LTM ('Cv), wynoszące 0,01-1 bit/s. STM, podobnie jak w modelu Atkinsona i Shiffrina, ma również funkcję kontrolną, sterując zachowaniem człowieka. W swoich badaniach autorzy posłużyli się zadaniem polegającym na po miarze czasu czytania trzech rodzajów znaków: liter, liczb i symboli chemicz nych. Podjęcie decyzji leksykalnej dotyczącej każdej litery wymaga przetwo rzenia ok. 5 bitów informacji (dla 27 liter alfabetu niemieckiego, które wyko rzystano w badaniach, log227 = 4,75). Zatem do przeczytania ciągu złożonego z 20 Uter wymagane jest przetworzenie ok. 100 bitów (= 20 x 5 bitów). Jeśli czas czytania ciągu wyniósł np. 5 s, to przeciętna szybkość przetwarzania jest równa 20 bit/s (= 100 bitów/5 s), czyli 1 bit w ciągu 50 ms. Pojemność STM szacowana jest przez Lehrla i Fischera na podstawie dwóch parametrów: szybkości strumienia na wejściu i przeciętnego czasu przechowywania informacji w STM. Magazyn o pojemności rzędu 80 bitów pozwala, według obliczeń dokonanych przez autorów, na przechowanie średnio przez 5,4 s, ok. 11 dwucyfrowych liczb (11 x 7 bitów = 77 bitów), albo ciągu złożonego z losowo dobranych 16 liter (16x5 bitów = 80 bitów). Wartość ta jest więc w przybliżeniu dwukrotnie większa niż pojemność STM szacowana przez Millera (1956), tj. 7 ± 2 jednostki. Wyliczenia Lehrla i Fischera wydają się nie uwzględniać mechanizmu zanikania informacji w pamięci krótkotrwałej: dostępność informacji spada szybko wraz z upływem czasu. Waugh i Norman (1965), uwzględniając zjawisko interferencji informacji w STM występujące w swobodnym odtwarzaniu listy elementów, oszacowali jej pojemność na 2-3
8.1. Natura pamięci
329
elementy. Współczesne badania nad pamięcią roboczą również wydają się wskazywać, że wartość „magicznej liczby” Millera została przeszacowana (Cowan, 1995; zob. rozdz. 8.2.4). Lehrl i Fischer przyjęli również wątpliwe założenie, że strumień danych na wejściu do STM ma zawsze taką samą szyb kość. W przypadku większości realistycznych zadań poznawczych, obok trans feru danych z rejestrów sensorycznych, STM zajmuje się wydobywaniem i przechowywaniem informacji z LTM, a także ich przetwarzaniem. Utrzymanie parametru Ck na maksymalnym poziomie w dłuższej perspektywie czasu wydaje się zatem niemożliwe. Pomimo formułowanych pod ich adresem zastrzeżeń, Lehrl i Fischer wyprowadzili ze swoich badań dwa godne uwagi wnioski. Pierwszy dotyczy parametru CK, który okazał się niezależny od typu materiału (litery, liczby) i wokalizacji (czytanie głośne i ciche). We wszystkich zastosowanych przez autorów seriach zadań, w których manipulowano tymi zmiennymi, czas reakcji nie różnił się istotnie. Wydaje się, że jest to dowód na formalny charakter pa rametru Ck - Drugi wniosek dotyczy niezależności parametrów CK i TR. Autorzy podają argumenty na rzecz owej niezależności, które są o tyle ciekawe, iż uważa się, że pomiędzy nimi zachodzi dość ścisły związek (np. Eysenck, 1986; Jensen, 1970b). Argumenty przytoczone przez Lehrla i Fischera dotyczą niezależności zmian w zakresie obu parametrów w przypadku różnych zaburzeń o charakterze klinicznym. Jednak w innych badaniach Lehrla (1988; za: Lehrl, Fischer, 1988), przeprowadzonych wśród osób zdrowych, parametry te skorelowane były pozytywnie na poziomie 0,65. Istotą metafory magazynowej w zastosowaniu do pamięci jest traktowanie jej systemów jako odrębnych. Idea odrębności, przecie wszystkim systemów pamięci krótko- i długotrwałej, wywodzi się jeszcze z XIX-wiecznych prac Williama Jamesa. Zwolennicy tej idei wskazują na szereg danych przemawia jących za tym podziałem. Dane eksperymentalne tego typu odwołują się do tzw. krzywych pozycyjnych, będących ilustracją prawdopodobieństwa prawidłowego odtworzenia bodźców z listy (np. słów) w zależności od ich pozycji na tej liście. Liczba bodźców na liście musi być na tyle duża, aby przekraczała pojemność pamięci krótkotrwałej. W klasycznych badaniach dotyczących zapamiętywania Glanzer i Cunitz (1966) prezentowali osobom badanym listę 15 słów z po leceniem ich zapamiętania. Prezentacja odbywała się sekwencyjnie. Następnie, po upływie 0, 10, albo 30 s, osoby badane proszone były o odpamiętanie tylu słów, ile tylko potrafią. Kolejność odtwarzania była dowolna, w szczególności nie musiała być zgodna z kolejnością prezentacji. Jest to jedna z klasycznych procedur stosowanych w badaniach nad pamięcią, tj. metoda swobodnego od twarzania (free recall). W warunkach, w których zastosowano odroczenie (10 albo 30 s) pomiędzy ekspozycją listy a rozpoczęciem jej odtwarzania, osoby badane w czasie przerwy wykonywały zadanie odliczania wstecz. Ponieważ jest to zadanie silnie angażujące pamięć krótkotrwałą, utrudnione staje się wówczas powtarzanie w pamięci listy słów. Wyniki uzyskane przez Glanzera i Cunitz zaprezentowano na ryc. 8.3. Wskazują one na wystąpienie tzw. efektu pierw szeństwa i efektu świeżości. Pierwszy dotyczy wyższego prawdopodobieństwa odtworzenia bodźców z początku listy, a drugi - z jej końca. Ponieważ lista jest na tyle długa, że jej zawartość nie może zostać w całości zakodowana w pamięci krótkotrwałej, efekt pierwszeństwa wyjaśnia się transferem informacji do LTM.
330
Rozdział 8. Pamięć
1
5
10
15
pozycja elementu na liście
Ryc. 8.3. Efekt pozycji - prawdopodobieństwo odtworzenia pierwszych i ostatnich kilku elementów listy elementów (np. słów) jest wyższe niż elementów środkowych. (Glazer, Cunitz, 1966, za: Eysenck, Keane, 2000, s. 154).
Efekt ten jest dość odporny na upływ czasu i interferencję wywołaną w pamięci krótkotrwałej (nie znika w warunkach odroczenia czasowego z zadaniem odliczania wstecz). Z kolei efekt świeżości wiązany jest z udziałem STM w od twarzaniu materiału, nawet gdy lista jest bardzo długa. Jeśli odtwarzanie roz poczyna się natychmiast po prezentacji listy, ostatnie jej elementy znajdują się jeszcze w pamięci krótkotrwałej. Efekt ten jest jednak silnie podatny na upływ czasu (odroczenie) i na interferencję (odliczanie wstecz). W warunku odro czenia odtwarzania już o 10 s efekt ten zanika, albo zdecydowanie słabnie (por. Bjork, Whitten, 1974). Okazuje się więc, że w warunkach odroczenia odtwarza nia wybiórczo redukowany jest efekt świeżości przy zachowaniu efektu pierw szeństwa. Wybiórczość tę uznano za dowód odrębności magazynów pamięcio wych, z którymi wiążą się obydwa efekty. Inne dane eksperymentalne sugerują odrębność STM i LTM ze względu na postulowane mechanizmy zapominania. Twierdzi się, że w obu wypadkach działa mechanizm interferencji. Wyniki badań wskazują, iż w pamięci krótkotrwałej czynnikiem ją wywołującym jest podobieństwo akustyczne bodźców, podczas gdy w pamięci długotrwałej - ich podobieństwo semantyczne. Ponadto postuluje się istnienie specyficznego dla LTM mechanizmu zapominania, polegającego na utra cie dostępu do informacji (cue-dependent forgetting). Mimo że informacja nie zo stała usunięta z LTM tracimy do niej dostęp, najczęściej chwilowo. Spektakular nym dowodem udziału tego mechanizmu w zapominaniu jest tzw. efekt końca języka (tip of tongue effect), kiedy doskonale zdajemy sobie sprawę z tego, że coś wiemy, ale nie jesteśmy w stanie sobie tego przypomnieć. Druga grupa dowodów odrębności magazynów STM i LTM pochodzi z badań fizjologicznych i odnosi się do zjawiska tzw. podwójnej dysocjacji (double dissociation) u pacjentów z uszkodzeniami mózgu. Przyjmuje się, że jeśli dwa zadania angażują różne mechanizmy poznawcze czy mózgowe, to w zależności od rodzaju uszkodzenia pacjenci będą wykonywać jedno z tych zadań gorzej niż osoby zdrowe, podczas gdy poziom wykonania drugiego po
8.1. Natura pamięci
331
zostanie niezmieniony. Krzywe pozycyjne, według zwolenników metafory ma gazynowej, odzwierciedlają zaangażowanie odrębnych podsystemów pamięcio wych. Wybiórcze zniesienie efektu pierwszeństwa z równoczesnym zachowa niem efektu świeżości przy specyficznych uszkodzeniach mózgu, uznać należy za dowód odrębności mechanizmów kryjących się za tymi efektami. Rezultaty tego typu pochodzą z badań przeprowadzonych na pacjentach z amnezją wsteczną lub następczą, spowodowaną uszkodzeniami przyśrodkowych płatów skronio wych, wzgórza lub okolic przedczołowych, zaistniałymi w wyniku wypadku albo interwencji chirurgicznej. Wyniki tych badań omówione zostaną w rozdz. 8.3.2. W tym miejscu zaznaczmy tylko, że opisano przypadki pacjentów, u których stwier dzono wybiórcze zaburzenia w zakresie efektu pierwszeństwa albo świeżości. Idea magazynowych modeli pamięci z jednej strony wydaje się intuicyjnie trafna. Większość znanych nam systemów przechowywania informacji ma strukturę magazynową, np. różnego rodzaju bazy danych, zarówno analogowe, (np. katalogi biblioteczne), jak i elektroniczne (np. baza danych o podatnikach). Samo pojęcie przechowywania sugeruje istnienie jakiegoś schowka czy pojemnika. Z drugiej strony, podstawowym „grzechem” tego podejścia jest błąd nadmiernego uproszczenia. Po pierwsze, jako nadmiernie uproszczony, a nawet zupełnie nietrafny, uznano statyczny charakter modeli blokowych, podczas gdy ogólne założenia paradygmatu poznawczego akcentują dynamikę procesów poznawczych. Trudności w oszacowaniu podstawowych własności magazynów pamięciowych, tj. pojemności i czasu przechowywania (poza LTM, która wydaje się nie posiadać ograniczeń w tym zakresie), wynikają zapewne z owej statyczności ujęcia, typowego dla metafory magazynowej. Reynolds i Flagg (1983) po analizie rezultatów wielu badań ustalili, że pojemność STM szacuje się w granicach od 3 do 20 jednostek. Również czas przechowywania informacji w pamięci krótkotrwałej mieści się w przedziale od 5 s (Lehrl, Fisher, 1988) do 1 min (Sternberg, 1996b). Różnice wynikają w sposób jednoznaczny z zastosowanych procedur eksperymentalnych, ale oznacza to, że różnorodne procesy poznawcze wpływają zarówno na czas przechowywania, jak i pojemność STM. Dzięki efektywnemu kodowaniu z wykorzystaniem mnemotechnik i mechanizmowi wewnętrznych powtórek można zwiększyć zakres obu parametrów pamięci. Właściwości pamięci sensorycznej wydają się bardziej stałe, ale również w jej przypadku pojemność i czas przechowywania zapisu różnią się w zależności od angażującego ją zadania poznawczego. Po drugie, kontrowersyjny wydaje się pogląd, że przetwarzanie informacji z udziałem systemów pamięciowych odbywa się zgodnie z ustaloną w modelach blokowych ścieżką. Właściwie żadna z omówionych propozycji teoretycznych nie rozwiązuje tego problemu w sposób zadowalający. Tymczasem proces mi mowolnego uczenia się w paradygmacie sztucznych gramatyk wydaje się pomijać pamięć krótkotrwałą, ale już werbalizacja reguł gramatyki (przynaj mniej częściowo możliwa) wiąże się transferem informacji z LTM do STM. Co więcej, aby wyjaśnić to zjawisko, niezbędne jest opisanie mechanizmu kodo wania informacji (abstrakcyjnego albo - co wydaje się już prostsze - egzem plarzowego) bez udziału STM. Również zautomatyzowane czynności procedu ralne realizowane są bez udziału pamięci krótkotrwałej. Wydaje się, że metafora magazynowa w ogóle nie pasuje do ludzkiego umysłu, którego struktura - jak uważa Czesław Nosal (1990) - podlega dynamicznym zmianom.
332
Rozdział 8. Pamięć
Po trzecie, podważono ideę zróżnicowania kodów reprezentacji danych w poszczególnych magazynach. Najmniej wątpliwości budzi rodzaj kodu w pa mięci sensorycznej. Jednak już np. model pamięci roboczej Baddeleya (1986; Baddeley, Hitch, 1974) wyróżnia odrębne kody podsystemów przechowywania informacji werbalnej i wzrokowo-przestrzennej, a także informacji zintegrowa nej z różnych modalności (Baddeley, 2001, 2002). Z kolei teoria Paivio (1971, 1986) zakłada, że kodowanie informacji w pamięci trwałej może odbywać się zarówno werbalnie, jak i niewerbalnie (np. obrazowo), a nie tylko semantycznie. Długotrwale pamiętanie dźwięków melodii, smaków czy zapachów, jak również procedur, sugeruje, że LTM wykorzystuje pełną pulę kodów reprezentowania informacji. Nie wydaje się, aby koncepcja uniwersalnego, abstrakcyjnego kodu propozycjonalnego była do utrzymania w odniesieniu do kodowania, np. dźwięków muzyki, a przecież każdy człowiek umiejętność tę posiada. Po czwarte, zauważono, że dowody odrębności STM i LTM, oparte na krzywych pozycyjnych, można wyjaśnić bez przyjmowania założeń o głębokich różnicach strukturalnych. Zniesienie efektu świeżości można wyjaśnić zjawis kiem interferencji pomiędzy przechowywaną informacją werbalną (listą słów), a werbalnym zadaniem odliczania wstecz. Kiedy bowiem zastosowano inne zadanie „przeszkadzające” w powtarzaniu listy stów, które polegało na wy łapywaniu z zestawu dźwięków tonu o określonej wysokości, efekt świeżości utrzymywał się nawet do 40 s (Reitman, 1971, 1974). Również dane kliniczne, dotyczące efektu podwójnej dysocjacji, można wyjaśnić odwołując się do zaburzenia przebiegu procesów przetw arzania informacji, związanych z różnymi mechanizmami pamięciowymi. Może to być zaburzenie konsolidacji śladu pamięciowego, dokonującej się z udziałem hipokampa (zob. rozdz. 9.1.3). Inne ujęcie wymaga zmiany spojrzenia na funkcje struktur mózgowych w procesie pamięciowym. Być może struktury mózgowe, niewątpliwie odrębnie aktywowane w zadaniach klasycznie uznawanych za miary STM i LTM, nie wskazują na odrębną lokalizację systemów, ale na odrębność związanych z nimi procesów poznawczych, np. konsolidacji śladu pamięciowego, albo przywoły wania określonych zapisów pamięciowych. Zaburzenia w zakresie tych mechanizmów, nawet jeśli mają dobrze poznaną etiologię, związaną z uszko dzeniem określonych partii mózgu, mogą być dowodem odrębności mechaniz mów pamięciowych, a nie systemów pamięci. W końcu po piąte, modele blokowe ujmują procesy pamięciowe w izolacji od innych procesów poznawczych. Według Craika i Lockharta (1972), różnice pomiędzy ilością danych trwale przechowywanych w pamięci, a ilością in formacji aktualnie świadomie przetwarzanych wynikają nie z lokowania ich w odrębnych magazynach, lecz z działania procesów uwagowych odpowiedzial nych za aktywowanie informacji. Trudno byłoby wyjaśnić proces kodowania informacji w LTM w oderwaniu od selekcji danych, która też jest procesem uwagowym. Również wydobywanie informacji z LTM, polegające na przeszu kaniu jej olbrzymich zasobów, nie byłoby tak szybkie bez udziału uwagi selektywnej. Połączenie różnych procesów poznawczych w jednym modelu jest zabiegiem skomplikowanym i generuje różne trudności. Na przykład pojawił się problem, czy mechanizm uwagowy angażowany w przeszukiwanie pola wzrokowego jest tym samym, który wspomaga przeszukiwanie pamięci. Innymi słowy, ważne wydaje się ustalenie, czy uwaga jest mechanizmem jednorodnym
8.1. Natura pamięci
333
(por. Nęcka, 1995; Szymura, Nęcka, 2004). Jednak pomijanie czynników istot nych dla danego zjawiska, chociaż w tradycji badawczej analizowanych odrębnie, byłoby nieuprawnionym uproszczeniem.
8.1.3. Procesualne modele pamięci Modele procesualne są alternatywnymi koncepcjami wyjaśniającymi wyniki badań nad pamięcią. W szczególności oznacza to, że nie kwestionując tych wyników, można wyjaśnić funkcjonowanie pamięci bez odwoływania się do metafory magazynowej. Co więcej, kontrowersje związane z próbami oszaco wania pojemności i czasu przechowywania informacji w różnych systemach są łatwiejsze do wyjaśnienia w ujęciu procesualnym niż strukturalnym. Nauka przedkłada proste rozwiązania nad bardziej złożone, jeśli te pierwsze wyjaśniają zgromadzone dane co najmniej tak samo dobrze, jak te drugie. W przypadku procesualnych modeli pamięci, a szczególnie teorii poziomów przetwarzania Craika i Lockharta (1972), wydaje się, że wyjaśnienia przez nie proponowane uznać można nawet za lepsze, niż wyjaśnienia proponowane w ujęciu maga zynowym. Przykładowo, wspomniane kontrowersje dotyczące właściwości magazynów, które są nie do uniknięcia w tradycyjnym, blokowym ujęciu pamięci, w większości z łatwością i niejako przy okazji, są wyjaśniane jako efekt głębokości przetwarzania informacji. Teoria poziomów przetwarzania nie była pierwszą próbą procesualnego wyjaśnienia funkcjonowania pamięci. Jednak w kontraście np. do procesualnego modelu pamięci długotrwałej Rumelharta, Lindseya i Normana (1972), nie była ograniczona tylko do jednego systemu pamięci. Jej ambicją, podobnie jak opisanych powyżej modeli blokowych, było wyjaśnienie szerokiej klasy zjawisk, niekiedy kosztem niewystarczającego poziomu szczegółowości postulowanych mechanizmów pamięciowych. Niemniej teoria poziomów przetwarzania była absolutnie przełomową, alternatywną próbą zrozumienia mechanizmów pamię ciowych. Craik i Lockhart (1972) przyjęli, że trwałość śladów pamięciowych wiąże się z głębokością przetworzenia stymulacji. Ponieważ głębokość przetwarzania jest efektem wielu procesów, nie tylko kodowania informacji, ale również póź niejszej obróbki, jest to zmienna ciągła. Skoro trwałość informacji jest skutkiem głębokości przetworzenia, niepotrzebne, a co najmniej uproszczone jest ogra niczanie się do skończonej liczby poziomów przetworzenia (w metaforze maga zynowej - liczby systemów pamięci). W teorii poziomów przetwarzania traktuje się pamięć jako system jednorodny, chociaż pogłębienie przetwarzania może angażować różne mechanizmy poznawcze. Przykładowo inne będą mechanizmy płytkiej sensorycznej obróbki stymulacji, a inne głębokiego kodowania infor macji w relacji do posiadanej wiedzy. Zapisy pamięciowe w teorii Craika i Lockharta stanowią swego rodzaju produkt uboczny percepcyjnej analizy stymulacji. Pojęcie analizy percepcyjnej rozumiane jest przez autorów jako proces złożony, angażujący - przy głębszym przetworzeniu - również wieloaspektową interpretację stymulacji. Ślady pamięciowe nie stanowią bezpośredniego odwzorowania bodźca, lecz są za pisem operacji poznawczych, składających się na proces jego percepcji. Stąd
334
Rozdział 8. Pamięć
proces odpamiętywania jest próbą odtworzenia sytuacji percepcyjnej. Ponieważ teoria poziomów przetwarzania zakłada, że pogłębienie przetwarzania wiąże się z wykonaniem wcześniejszych, płytszych operacji poznawczych, dlatego odtwa rzanie stymulacji przebiega tym sprawniej, im głębiej została ona przetworzona. Przywołania pamięciowe są tym samym uzależnione od przebiegu procesów interpretacji bodźca oraz od możliwości późniejszego odtworzenia operacji, które uczestniczyły w procesie interpretacyjnym. Rozwiązanie takie pozwala na wyjaśnienie różnic intra- i interindywidualnych w przywołaniach pamięciowych, czyli różnic ujawniających się zarówno między osobami uczestniczącymi w ja kimś zdarzeniu, jak również między kolejnymi przywołaniami tej samej osoby. Jak zauważa Najder (1997), w przeciwieństwie do wyjaśnień pochodzących z modeli magazynowych, teoria poziomów przetwarzania zakłada, że nawet gdyby usunąć wszystkie niesprawności systemu poznawczego, przywołania pa mięciowe - przynajmniej inter-, a być może i intraindywidualnie - byłyby nadal różne. Wynika to z przebiegu procesu interpretacji stymulacji, który może prze biegać zupełnie inaczej u różnych ludzi, nawet jeśli działają na nich te same bodźce. Różne mogą być też możliwości odtworzenia operacji poznawczych, które składały się na proces percepcji i interpretacji. Craik i Lockhart przyjęli dla uproszczenia podział poziomów przetwarzana na: płytsze, związane z analizą fizycznych właściwości stymulacji, i głębsze, związane z analizą znaczenia stymulacji. Każdy z nich może zawierać wiele podpoziomów, jednak autorzy nie chcieli przesądzać o ich liczbie i unikalnych właściwościach każdego z nich. W badaniach empirycznych potwierdzono hi potezę, wiążącą głębokość przetwarzania bodźca z prawdopodobieństwem roz poznania (Craik, TuMng, 1975; zob. paradygmat 8.1) albo swobodnego przypominania (Rogers, Kupler, Kirke, 1977). Paradygm at 8.1
Badanie pamięci w kategoriach poziomów przetwarzania W klasycznym badaniu Craika i Tulvinga (1975) przeprowadzono łącznie dziesięć eksperymentów. W każdym z nich uczestniczyło ponad 20 osób badanych, którym prezentowano kilkadziesiąt (40 do 60) krótkich rzeczowników o konkretnym zna czeniu. Słowa te były prezentowane tachistoskopowo w czasie 200 ms. Przed każI dym słowem osobie badanej czytano lub prezentowano na piśmie pytanie dotyczą- i | ce najbliższego słowa. Na pytanie to trzeba było odpowiedzieć już po zapoznaniu ? * się z bodźcem, naciskając odpowiedni przycisk (klucz reakcyjny TAK lub NIE) albo x emitując reakcję werbalną. W każdym przypadku mierzono czas reakcji. Istotą procedury Craika i Tulvinga było manipulowanie charakterem pytań, tak ; aby - zgodnie z przyjętym stanowiskiem teoretycznym - określone pytanie ? stymulowało odpowiedni poziom przetwarzania informacji. Na poziomie płytkim, nazwanym przez autorów poziomem strukturalnym, pytano o to, czy słowo napisane jest wielkimi literami. W przypadku, gdy za chwilę pojawiło się np. słowo „STÓŁ”, należało odpowiedzieć TAK, a gdy słowo napisano jako „stół”, właściwa odpowiedź brzmiała NIE. Na nieco głębszym poziomie „fonemicznym” pytano, czy słowo rymuje się z innym słowem. Na przykład pytanie brzmiało: „Czy słowo rymuje
8.1. Natura pamięci
335
się ze słowem DYNIA?” Jeśli po tym pytaniu badany zobaczył słowo „skrzynia”, powinien zareagować TAK, a jeśli widział słowo „targ”, powinien nacisnąć przycisk NIE. Na najgłębszym poziomie, wymagającym analizy semantycznej, pytano albo o przynależność kategorialną słowa, albo o to, czy słowo pasuje do konkretnego zdania. Na przykład na pytanie: „Czy to jest gatunek ryby?”, należało odpowiedzieć TAK w przypadku słowa „REKIN”, a NIE w przypadku słowa „niebo”. Z kolei na pytanie: „Czy to słowo pasuje do zdania: ‘Spotkał ___ na ulicy’?”, należało odpowiedzieć TAK w przypadku słowa „PRZYJACIEL”, a NIE w przypadku słowa „chmura”. Drugą, niezwykle istotną, częścią procedury był niespodziewany test pamięci. Osoby badane proszono o odpamiętanie prezentowanej wcześniej listy słów, albo w warunkach swobodnego przypominania („Przypomnij sobie w dowolnej kolej ności słowa, które widziałeś w zadaniu na spostrzeganie”), albo w warunkach roz poznawania. Jeśli stosowano test rozpoznawania, badanym prezentowano listę słów oryginalnych wraz z dwu- lub trzykrotnym nadmiarem. Na przykład, jeśli oryginalna lista liczyła 40 słów, w teście rozpoznania znajdowało się 80 lub 120 słów, w tym lista oryginalna w całości. Sprawdzano procent poprawnie odpamiętanych słów w zależności od warunku eksperymentalnego. Okazało się, że manipulacja poziomami przetwarzania wpłynęła zarówno na czas reakcji, jak i na poprawność odpamiętania. Na przykład w pierwszym eksperymencie z serii dziesięciu, średni czas reakcji w warunku strukturalnym wy niósł 614 ms, w warunku fonemicznym - 689 ms, w warunku wymagającym decyzji kategorialnej - 711 ms, a w warunku wymagających analizy treści zdania - 746 ms. Dane te dotyczą sytuacji, gdy poprawna odpowiedź brzmiała TAK. W przypadku 1 odpowiedzi negatywnych wartości czasu reakcji było nieco inne, choć nie różniły się znacząco od czasu reakcji pozytywnych. Jeśli chodzi o poprawność w teście odpamiętania, była ona najniższa w warunku strukturalnym (18%), znacząco wyższa - w warunku fonemicznym (78%), a najwyższa - w warunkach semantycz nych (91%, jeśli chodzi o decyzje kategorialne, a 96% w przypadku analizy treści zdania). Dane te dotyczą poprawności reakcji typu TAK; w przypadku reakcji typu I NIE zaobserwowano nieco słabszy przyrost poprawności w miarę przechodzenia \ na głębszy poziom przetwarzania, chociaż i tutaj przyrost ten był znaczący (od 14% w warunku strukturalnym do 85% w warunku wymagającym analizy treści zdania), f Można więc powiedzieć, że im głębszy poziom przetwarzania, tym dłuższy czas | reagowania, ale lepszy wskaźnik niezamierzonego zapamiętywania materiału. Dłuższy czas reakcji świadczy zapewne o większej złożoności procesu pozna wczego, zaangażowanego w przetwarzanie materiału na poziomie głębokim. Nato miast wyższy odsetek poprawnych reakcji w teście pamięci świadczy niewątpliwie | o większej i jakościowo lepszej pracy umysłu wtedy, gdy postawi mu się zadanie I dogłębnej analizy materiału. Jak piszą sami autorzy: „przechowanie materiału w pamięci stanowczo zależy od jakości wykonanych operacji kodowania” (Craik, Tulving, 1975, s. 291). Paradygmat Craika i Tulvinga był wielokrotnie wykorzystywany w badaniach z zakresu pamięci, ale też w badaniach nad mimowolnym uczeniem się. i Zadecydowała o tym istotna część przyjętej przez nich procedury, zgodnie z którą | osoba badana kontaktuje się z materiałem bodźcowym bez zamiaru zapamiętania
336
Rozdział 8. Pamięć
go, lecz w odpowiedzi na polecenie eksperymentatora, aby ten materiał w jakiś sposób przetworzyć. Potem znienacka następuje próba pamięci, której wyniki świadczą o efektywności mimowolnego, niezamierzonego zapamiętywania. Po sługując się tą logiką stworzono procedury do badania skuteczności niezamierzo nego, mimowolnego uczenia się (np. Nęcka, 1994a; Nęcka, Machera, Miklas, I 1992). Interesującą modyfikację tej procedury zaproponowała Dorota Bienicewicz>Krasek (2003). Punktem wyjścia była dla autorki chęć rezygnacji z bodźców l słownych, które niewątpliwie prowokują pojawienie się operacji poznawczych typowych dla materiału werbalnego. Mimo że pojęcie poziomów przetwarzania odnosi się do poznania w ogóle, w badaniach eksperymentalnych wykorzystywano tylko te zabiegi, które nadawały się do słów. Na przykład na poziomie płytkim pytano, czy słowo jest napisane wielkimi literami, a na poziomie głębokim, czy pasuje logicznie do zdania. W proponowanej modyfikacji pokazywano osobom badanym obrazki. Chcąc sprowokować płytki poziom przetwarzania, pytano o to, jakiego koloru (z czterech do wyboru) jest na obrazku najwięcej. Natomiast głębszy poziom przetwarzania wzbudzano pytaniem, czy dwa przedmioty pokazane na osobnych obrazkach należą do tej samej kategorii, albo czy mogłyby się pojawić w tym samym kontekście („Gdyby przedmiot w kółku pojawił się na obrazku obok, ; czy miałoby to sens?”). W ten sposób przełamano tradycję, zgodnie z którą głęboki poziom przetwarzania określano jako poziom semantyczny. Wyniki badań i Bienicewicz-Krasek pokazały, że tak spreparowany materiał daje analogiczne zależności, jak materiał werbalny, bowiem procent poprawnie rozpoznanych bodź ców w teście pamięci był znacząco wyższy wtedy, gdy bodźce te opracowywano na poziomie głębokim.
Rogers, Kupler i Kirke (1977) zastosowali podobną procedurę jak Craik i Tulving, ale wprowadzili dodatkowo jeszcze jeden typ pytania, odnoszący się do Ja osoby badanej. Badani mieli mianowicie odpowiedzieć na pytanie, czy prezentowane im słowo opisuje ich samych. Wyniki testu swobodnego odtwarzania słów stosowanych jako materiał do tego pytania były znacząco wyższe, niż rezultaty odnoszące się do semantycznego poziomu przetwarzania, uważanego zwykle za najgłębszy. Co istotne, wyniki te dotyczyły zarówno słów, które badani oceniali jako bardziej trafnie opisujące ich osobę, jak też słów mniej trafnych, przy czym te pierwsze pamiętane były zdecydowanie najlepiej. Autorzy nazwali swój rezultat efektem autoreferencji. Wydaje się, że odpowiedź na pytanie tego typu wymaga bardzo głębokiej analizy słowa w odniesieniu do kluczowej dla jednostki wiedzy na temat Ja. Bellezza (1984) dowodzi, że wiedza tego typu jest rozbudowana i łatwo dostępna, dlatego efekt autoreferencji jest wyjątkowo silny. Nie ma jednak powodu, aby uznawać go za jakościowo różny od innych mechanizmów głębokiego poziomu przetwarzania. Z kolei badania Hyde’a i Jenkinsa (1969), w których użyto uproszczonej wersji paradygmatu stosowanego przez Craika i Tulvinga, wykazały, że nawet jeśli osoby badane zostaną poinformowane o teście sprawdzającym poziom za pamiętania słów, nie ma to większego znaczenia dla uzyskanych rezultatów. Badacze zastosowali plan międzygrupowy, w którym manipulowali głębokością przetworzenia i informacją o teście sprawdzającym poziom zapamiętania słów.
8.1. Natura pamięci
337
Płytki poziom przetworzenia związany był z zadaniem polegającym na policzeniu liter w każdym z prezentowanych słów, a głęboki - z oceną, w jakim stopniu przyjemne jest dane słowo. W grupach, w których test swobodnego odtwarzania słów użytych w eksperymencie byt niespodzianką, uzyskano 68% poprawnych odtworzeń w grupie głębokiego poziomu przetwarzania i 39% w grupie poziomu płytkiego. Jeśli osoby badane poinformowano o czekającym je teście odtwarzania, uzyskano odpowiednio 69% poprawnych odtworzeń w gru pie głębokiego i 43% - w grupie płytkiego poziomu przetwarzania. Byt to spek takularny dowód na bardzo silny wpływ głębokości przetwarzania na poziom odtworzenia i bardzo słaby wpływ informacji uprzedzającej o tym, że słowa należy zapamiętać. W teorii poziomów przetwarzania przyjęto szereg innych, kontrowersyjnych niekiedy założeń, z których istotne wydaje się twierdzenie dotyczące „obiegu” informacji w obrębie poziomów przetwarzania i pomiędzy nimi. U Craika i Lockharta są to dwa mechanizmy: powtarzania podtrzymującego (maintenance rehearsal) i powtarzana pogłębiającego (elaborative rehearsal). Mechanizm po wtarzania podtrzymującego polega na powtarzaniu operacji, które zostały uprzednio wykonane na danym materiale. Mechanizm ten nie prowadzi do pogłębienia przetwarzania. Jego funkcją jest aktywne podtrzymywanie informacji na danym poziomie. Z kolei mechanizm powtarzania pogłębiającego polega na zastosowaniu nowych - najczęściej semantycznych - operacji w stosunku do materiału pamięciowego, prowadzących do jego głębszego przetworzenia. Nie stworzono wyczerpującego katalogu operacji, które prowadzą do pogłębienia przetwarzania. Według Morrisa, Brandsforda i Franksa (1977), można podzielić je na dwie grupy: dotyczące elaboracji materiału albo elaboracji relacji. Pierwszy rodzaj elaboracji polega na kodowaniu z uwzględnieniem poszczególnych cech bodźca, a drugi - na kodowaniu bodźca w odniesieniu do właściwości innych zapisów pamięciowych. W obu przypadkach kodowanie może obejmować różne poziomy przetwarzania, np. cechy fonemiczne i semantyczne słowa „książka” (elaboracja materiału) czy relacje fonemiczne słów „książka” oraz „wstążka”, albo relacje semantyczne z pojęciami, takimi jak: „druk”, „wiedza”, „wiersz” itd. (elaboracja relacji). Szczególnym rodzajem elaboracji relacji jest strategiczne organizowanie informacji, polegające na poszukiwaniu w nabywanym materiale określonego porządku. Klein i Kihlstorm (1986) wykryli, że jeśli informacja łatwiej poddaje się porządkowaniu, czyli ułatwia głębokie przetworzenie, to jej późniejsze odtworzenie jest bardziej efektywne. Oba mechanizmy obiegu informacji są unikalne dla koncepcji poziomów przetwarzania. Co prawda powtarzanie podtrzymujące pojawia się również w koncepcjach magazynowych, ale obie koncepcje prowadzą do różnych pre dykcji co do jego efektów. Powtarzanie podtrzymujące w ujęciu magazynowym prowadzi do utrwalenia śladu pamięciowego, podczas gdy w teorii poziomów przetwarzania nie ma na to wpływu. Craik i Watkins (1973) zaprojektowali badanie, którego celem była weryfikacja tych predykcji. W zadaniu prezento wano listę wyrazów, z poleceniem zapamiętania ostatniego słowa, rozpoczyna jącego się na określoną literę (słowo docelowe). Na liście znajdowało się wiele tego typu słów, co wymagało ciągłej aktualizacji pamięci: nowe słowo docelowe zastępowało poprzednie. Pomiędzy nimi na liście znajdowały się słowa roz poczynające się na inne litery. Ich liczba podlegała manipulacji eksperymental
338
Rozdział 8. Pamięć
nej w zakresie 0-12. Słowa te mogły być ignorowane przez osoby badane po stwierdzeniu, że zaczynają się na niewłaściwą literę. Istotą tej manipulacji było założenie, że w trakcie prezentacji listy wyrazów ignorowanych osoby badane mają okazję do powtarzania ostatniego słowa docelowego. Ponieważ zadanie nie wymaga od osób badanych pogłębionego przetwarzania słowa, powtarzanie podtrzymujące wystarcza do jego wykonania. Przyjęto, że więcej wyrazów ignorowanych pomiędzy kolejnymi ekspozycjami słów docelowych pozwala na większą liczbę tego rodzaju powtórek. Jednak w myśl założeń teorii poziomów przetwarzania, nie powinno to mieć wpływu na poziom ich odtworzenia. Na zakończenie badania zastosowano procedurę swobodnego odtwarzania słów docelowych z całej listy, o czym nie poinformowano wcześniej osób badanych. W badaniach wykazano, że poziom odtw,orzenia nie wiąże się z liczbą przypuszczalnych powtórzeń słowa docelowego, co było zgodne z teorią poziomów przetwarzania. Coraz częściej pojawiają się badania odnoszące się do mózgowego podłoża teorii poziomów przetwarzania (zob. ramka 8.1). Stosowane w nich odmiany klasycznego paradygmatu eksperymentalnego Craika i Tulvinga (1975; zob. paradygmat 8.1) połączono z różnymi technikami neuroobrazowania, przez co uzyskano wgląd w aktywację struktur mózgowych w warunkach płytkiego i głębokiego przetwarzania. Zwolennicy teorii poziomów przetwarzania zaproponowali nie tylko nowe spojrzenie na pamięć. Poddali również reinterpretacji koronny argument na rzecz strukturalnej odrębności magazynów STM i LTM, tj. wyniki badań nad krzywymi pozycyjnymi. Dokonał tego Bernbach (1975). Jego zdaniem, począt kowa część listy zostaje lepiej zapamiętana dzięki pogłębionej analizie, co wy jaśnia efekt pierwszeństwa. Ponieważ nie udaje się to w stosunku do wszystkich elementów długiej listy, np. ze względu na zbyt szybkie tempo jej prezentacji, późniejszy materiał kodowany jest już płycej. Efekt świeżości jest również skutkiem płytkiego przetwarzania, o czym świadczy jego duża podatność na dystrakcję wywoływaną zadaniem wykonywanym zaraz po ekspozycji listy. Dzięki pewnym zabiegom, np. wymuszeniu powtarzania każdego elementu listy tyle samo razy, udaje się znieść oba te efekty. Jeśli założyć, że powtarzanie może się wiązać z określoną strategią elaboracji (Morris, Brandsford, Franks, 1977), powtarzanie jest sposobem pogłębienia przetwarzania każdego elementu listy. Teoria poziomów przetwarzania była intensywnie krytykowana, co dopro wadziło do gruntownej jej modyfikacji (Lockhart, Craik, 1990). Modyfikacje polegały w większości na osłabieniu pierwotnych twierdzeń teorii z 1972 r., bez przyjmowania nowych, oryginalnych rozwiązań. Osłabiono główne twierdzenie o związku głębokości przetwarzania z trwałością śladów pamięciowych. Autorzy uwzględnili dane wskazujące na wyższą - niż przewidywana przez ich koncepcję - trwałość śladów pamięciowych informacji przetworzonej na płytkim poziomie sensorycznym. Później wykazano, że uzasadnione wydaje się jeszcze większe ograniczenie zakresu tego twierdzenia. Challis i Brodbeck (1992) wykazali, że efekt głębokości przetwarzania nie stosuje się do testów pamięci ukrytej, a jedynie do tradycyjnych miar pamięci jawnej, czyli rozpoznawania i przypominania. Wydaje się więc, że założenie o żwiązku głębokości przetwarzania z poziomem odpamiętania należałoby rozumieć jako efekt statystyczny (nie mający mocy wyjaśniającej, lecz wyłącznie opisową) i ograniczyć do pamięci jawnej.
8.1. Natura pamięci
339
Ramka 8.1
Neuroobrazowanie poziomów przetwarzania
Kapur, Craik, Tulving i współpracownicy (1994) poddali weryfikacji twierdzenie 0 głębokości przetwarzania z użyciem tomografii pozytonowej (PET). Podobnie jak w klasycznych badaniach, osobom badanym prezentowano najpierw listę słów (rzeczowników), manipulując poziomem ich przetworzenia. W warunku płytkiego przetworzenia zadanie polegało na detekcji litery „a” w prezentowanym słowie, a w warunku przetwarzania głębokiego - na kategoryzacji rzeczowników, jako odnoszących się do obiektów ożywionych bądź nieożywionych. W badaniach zreplikowano efekt wpływu głębokości przetwarzania na poziom odtworzenia w teście rozpoznania. Za pomocą techniki PET zidentyfikowano różne obszary, aktywowane w trakcie fazy prezentacji słów w warunkach płytkiego i głębokiego przetwarzania. Różnica dotyczyła aktywności lewej dolnej kory przedczołowej półkuli (left inferior prefrontal cortex), angażowanej w warunku przetwarzania głębokiego. Otten i Rugg (2001) używając techniki funkcjonalnego rezonansu magnetycz nego (fMRI) przeprowadzili eksperyment, w którym osoby badane miały zdecydo wać, czy prezentowane im słowo oznacza obiekt ożywiony, czy nie (poziom głębszy, ze względu na konieczność analizy znaczenia), albo czy słowo posiada parzystą czy nieparzystą liczbę liter (poziom płytki). Podobnie jak u Kapura i współpracowników, jedynie warunek głębokiego przetwarzania angażował korę przedczołową lewej półkuli oraz jej obszar przyśrodkowy (left and medial prefrontal cortex). Z kolei w warunku płytkiego przetwarzania angażowane były obustronnie obszary bruzdy śródciemieniowej (bilateral intraparietal sulcus) i zakrętu wrzecionowatego (bilateral fusiform gyrus) oraz obszar przedczołowy prawej półkuli (right prefrontal cortex) 1górny zakręt potyliczny lewej półkuli (left superior occipital gyrus). Obszary przedczołowe lewej półkuli, których wzmożona aktywność ujawniła się w warunkach przetwarzania głębokiego w obydwu badaniach, związana jest z przetwarzaniem znaczenia stymulacji oraz zaangażowaniem reprezentacji wer balnych. Z kolei obszary mózgu aktywne w warunku płytkiego przetwarzania wiążą się z wyższorzędowymi operacjami percepcyjnymi. Przewaga aktywności struktur prawej półkuli wskazuje na angażowanie operacji wzrokowo-przestrzennych. Wyniki te zdają się potwierdzać trafność manipulacji stosowanej w paradygmacie poziomów przetwarzania.
j {
; i
Osłabieniu uległo również założenie mówiące o ustalonej sekwencji obiegu informacji z poziomów płytszych do głębokich. Craik i Lockhart zakładali po czątkowo, że obróbka stymulacji na głębszych poziomach nie może odbyć się bez uprzedniego przetworzenia na poziomach płytszych. W wielu obszarach psychologii poznawczej można odnaleźć dane wskazujące na współistnienie jednocześnie oddolnych i odgórnych procesów przetwarzania informacji. Pierw sze dokonuje się od płytkich do głębokich poziomów przetwarzania, a drugie odwrotnie. Dlatego Lockhart i Craik (1990) stwierdzili, że przetwarzanie in formacji jest swego rodzaju kompromisem między procesami oddolnymi i odgór nymi, które na dodatek mogą zachodzić częściowo lub w pełni równolegle na różnych poziomach przetwarzania.
340
Rozdział 8. Pamięć
Koncepcja Craika i Lockharta była niewątpliwie przełomowa w spojrzeniu na funkcjonowanie pamięci. Z powodzeniem była w stanie odmiennie wyjaśnić wiele danych eksperymentalnych, uzyskanych i interpretowanych w ujęciu ma gazynowym. Po jej opublikowaniu zgromadzono wiele danych przemawiających na rzecz jej trafności. Nie powinno nas jednak dziwić, że nawet po modyfikacjach teoria ta nadal posiada ograniczoną moc wyjaśniającą. Złożoność ludzkiego umysłu wymaga teorii eleganckich i prostych, ale przede wszystkim trafnych, tj. ujmujących całą złożoność wielu systemów i mechanizmów pamięciowych. Być może dlatego obecnie mniejszy nacisk kładzie się na uniwersalność teorii, tj. szeroki zakres jej zastosowania do różnorodnych zjawisk pamięciowych. Bieżące badania koncentrują się raczej na wąskiej klasie tych zjawisk, przy maksymal nym pogłębieniu analizy ich mechanizmów. W ocenie teorii poziomów przetwarzania uwzględnić należy możliwość ścisłego powiązania między różnymi procesami poznawczymi człowieka, zwykle traktowanymi odrębnie od pamięci. Chodzi głównie o procesy percepcyjne, które - według Craika i Lockharta - są podłożem zjawisk pamięciowych. Istotne wydają się również szerokie możliwości połączenia teorii poziomów przetwa rzania z pamięcią semantyczną, czego nie dawały modele magazynowe. Nawet jeśli uznać zasadność krytyki teorii poziomów przetwarzania, Craik i Lockhart wyznaczyli nią nowe sposoby opisu i badania pamięci.
8.2. Systemy pamięci przemijającej Nawiązując do kryterium czasu przechowywania informacji, systemy pamięci podzielono na dwie kategorie. W pierwszej mieszczą się systemy pamięci prze mijającej, obejmujące rejestry sensoryczne i pamięć krótkotrwałą (roboczą). Informacje przechowywane w tych systemach, z racji ich funkcji i mechaniz mów działania, są nietrwałe. Co więcej, ich przemijający charakter jest w tym przypadku zaletą, bowiem zapisy pamięciowe mogą zostać łatwo usunięte, ustępując miejsca nowo napływającej informacji. Dynamika, zarówno elemen tarnych, jak i złożonych procesów poznawczych, wymaga ciągłej aktualizacji przetwarzanych danych, czemu sprzyja łatwość „pozbywania” się niepotrzeb nych już informacji. Co istotne, procesy elementarne, np. percepcji, korzystają przede wszystkim z rejestrów sensorycznych, podczas gdy procesy złożone, np. rozumowanie - raczej z pamięci krótkotrwałej (roboczej). W drugiej kategorii mieszczą się systemy pamięci trwałej, do których wrócimy w rozdz. 8.3.
8 .2 .1 . Pamięć sensoryczna Teoretycznie przyjmuje się, że każdy z narządów zmysłu został wyposażony w odpowiadający mu rejestr sensoryczny. Ze względów technicznych badaniom empirycznym poddawano głównie dwa rejestry: pamięć ikoniczną (iconic memory), związaną ze zmysłem wzroku i pamięć echoiczną (echoic memory), związaną z słuchem (Neisser, 1967).
8.2. Systemy pamięci przemijającej
341
Paradygmat 8.2
Procedura odtwarzania częściowego według Sperlinga
Sperling (1960) eksponował osobom badanym matrycę złożoną z liter, których liczba przekraczała pojemność pamięci krótkotrwałej. W warunkach standardowej prezentacji tachistoskopowej osoby badane były w stanie odtworzyć poprawnie 4-5 liter, niezależnie od wielkości owej matrycy. Ponieważ odtwarzanie w takim zadaniu angażuje pamięć krótkotrwałą, był to kolejny dowód na jej znaczne ogra niczenie, przy czym mogło ono dotyczyć albo pojemności STM, albo czasu zani kania zawartej w niej informacji. Sperlinga nie interesowała jednak pojemność STM, lecz pamięci ikonicznej. Zaproponował więc modyfikację opisanego zadania, w któ rej osoba nie odtwarzała całości zaprezentowanego materiału, lecz losowo wska zaną jego część. W krótkim interwale czasu prezentowano jej matrycę liter, która podobnie jak w oryginalnym zadaniu - ze względu na swoją wielkość przekraczała pojemność STM (zob. ryc. 8.4). Prezentacja standardowo trwała 50 ms, po czym następowała przerwa, w której wyświetlano pustą planszę (białą albo czarną). Długość tej przerwy podlegała manipulacji eksperymentalnej. Następnie pojawiała się wskazówka akustyczna (ton o określonej, łatwej do różnicowania wysokości), albo wizualna (strzałka), która informowała osobę badaną o tym, który z rzędów niewidocznej już matrycy należy odtworzyć. Ponieważ wskazówki pojawiały się w porządku losowym, osoba badana nigdy nie wiedziała, który z rzędów będzie musiała odtworzyć. Zakładano, że jeśli istnieje magazyn pamięci ikonicznej, osoba badana powinna mieć ultrakrótkotrwały dostęp do całej informacji zawartej w matrycy, również po jej zniknięciu z ekranu tachistoskopu. Jeśli więc w tym czasie wskazana zostanie pewna niewielka część materiału (nie przekraczająca pojem ności STM) będzie możliwe jej odtworzenie, bez względu na to, gdzie będzie umiejscowiona. Badania Sperlinga wykazały, że jeśli przerwa pomiędzy ekspozycją matrycy liter a wskazówką była dłuższa niż 500 ms, poprawność odtwarzania była podobna jak w oryginalnym zadaniu. Jeśli jednak czas tej przerwy mieścił się w przedziale 100-500 ms, badani byli w stanie odtworzyć dowolny ze wskazanych im rzędów z niemal stuprocentową poprawnością. Oznacza to, że do momentu uzyskania wskazówki przechowywali obraz całej matrycy, ale tylko jeśli przerwa była bardzo krótka. Nie było istotnych różnic w uzyskanych wynikach, gdy zwiększono wielkość matrycy do 12 liter (3 rzędy po 4 bodźce). plansza z bodźcami
pusta plansza
ton wysoki - górny wiersz ton średni - środkowy wiersz ton niski - dolny wiersz
b t k m d j h w d
50-100 ms
bodziec wskaźnikowy
100-500 ms
Ryc. 8.4. Procedura zastosowana w zdaniu Sperlinga (1960).
?
i
5
j
!
342
Rozdział 8. Pamięć
Odkrycia pamięci ikonicznej dokonał Sperling (1960), stosując tzw. pro cedurę odtwarzania częściowego (partial-report procedure; zob. paradygmat 8.2). Okazało się, że w pamięci ikonicznej mieści się znacznie więcej informacji niż w pamięci krótkotrwałej, lecz czas przechowywana jest bardzo ograniczony. Badania Sperlinga dowodziły, że przechowaniu podlegają fizyczne właściwości bodźców wzrokowych. Dzięki różnym odmianom procedury odtwarzania częściowego okazało się, że osoby badane mają dostęp nie tylko do lokalizacji bodźców. Zapis w pamięci ikonicznej pozwalał na odtworzenie materiału ze względu na wielkość liter (wielkich lub małych), a nawet ich kolor. Wydaje się zatem, że pamięć ikoniczna wiernie koduje wszelkie właściwości fizyczne stymulacji, dzięki czemu dalsza obróbka danych może odbywać się ze względu na dowolne kryteria. Procedura odtwarzania częściowego doczekała się wielu modyfikacji. Jedną z nich poświęcono oszacowaniu pojemności pamięci ikonicznej. Averbach i Coriell (1961) eksponowali osobom badanym losowy ciąg 16 liter umieszczo nych w dwóch rzędach. Przed albo po ekspozycji liter prezentowano planszę zawierającą znak, wskazujący osobie badanej literę, którą powinna była odtwo rzyć. Zatem z jednej strony zwiększono liczbę prezentowanych liter, a zmniej szono do jednej liczbę liter wymagających odtworzenia. Okazało się, że badani byli w stanie poprawnie odtworzyć ok. 75% bodźców, czyli średnio 12 z 16 liter. W innym eksperymencie Averbach i Coriell (1961) odkryli dużą podatność pamięci ikonicznej na interferencję wywołaną nowo napływającą informacją. Kiedy w miejscu prezentacji bodźca w odstępie minimum 100 ms pojawia się kolejny bodziec, ten pierwszy ulega całkowitemu zatarciu. Zjawisko to nosi nazwę maskowania wstecznego (backward masking). Jeśli jednak odstęp mię dzy bodźcami jest krótszy niż 100 ms, dochodzi do nakładania się ich na sie bie. Erikson i Collins (1967) badali to zjawisko, prezentując osobom badanym w krótkich odstępach czasu dwa układy kropek, które po nałożeniu na siebie tworzyły litery V, C albo H. Jeżeli dwa układy kropek pokazywano w odstępie mniejszym niż 100 ms, osoby badane rozpoznawały litery, nie zdając sobie sprawy z tego, że zostały one utworzone z dwóch odrębnych obrazów. Jeśli jednak odstęp ten był dłuższy niż 100 ms, następowało zjawisko maskowania wstecznego, powodujące niemożność rozpoznania liter. Badania nad pamięcią echoiczną prowadzono w paradygmacie słuchania dychotycznego. Treisman (1964a) prezentowała osobom badanym w różnych kanałach dwie informacje, które mogły być identyczne albo różne. Jak zwykle jeden z kanałów zdefiniowany był jako ważny, a drugi - jako ignorowany. Jeśli odstęp czasowy między informacją w kanale ignorowanym i ważnym był nie dłuższy niż 2 s, osoby badane były w stanie ocenić podobieństwo obu przeka zów. Oznacza to, że informacja, którą należało ignorować pozostawała dostępna przetwarzaniu jeszcze przez 2 s, co można uznać za wskaźnik czasu utrzymy wania informacji w pamięci echoicznej. Z kolei Darvin, Turvey i Crowder (1972) zastosowali procedurę będącą połączeniem zmodyfikowanych paradyg matów Sperlinga i Treisman. Osobom badanym w słuchawkach stereofonicz nych prezentowano po 3 bodźce akustyczne w trzech różnych lokalizacjach przestrzennych: z lewej strony (kanał lewy), z prawej strony (kanał prawy) i z góry (stereofonicznie). Natomiast wizualnie pojawiała się wskazówka okreś lająca lokalizację, z której należało odtworzyć zaprezentowany materiał. Oka
8.2. Systemy pamięci przemijającej
343
zało się, że czas przechowywania informacji sensorycznej w pamięci echoicznej wynosił do 4 s. W innych badaniach wykazano, że czas przechowywania in formacji w rejestrach sensorycznych można w sprzyjających warunkach znacz nie przedłużyć. Jeśli zminimalizuje się poziom dystrakcji, to informacja w pa mięci ikonicznej utrzymuje się do 2 s, a w pamięci echoicznej - nawet do 10 s (Cowan, 1984). Ultrakrótkiemu przechowaniu informacji w rejestrach sensorycznych pod legają, jak się wydaje, fizyczne właściwości stymulacji. Dzięki nim możliwa jest poznawcza obróbka bodźca, nawet jeśli nie jest on już dostępny percepcyjnie. W przypadku pamięci ikonicznej ten krótki czas daje możliwość przeprowa dzenia analizy cech stymulacji, ich późniejszą integrację i w końcu rozpoznanie bodźca. Pamięć echoiczna wydaje się mieć kluczowe znaczenie dla rozpozna wania mowy, bowiem przechowane w niej fonemy mogą się z sobą łączyć, dając możliwość analizy znaczenia, jeśli utworzą znane nam słowo.
8.2.2. Pamięć krótkotrwała W ujęciu magazynowym podstawowe właściwości charakteryzujące odrębne systemy pamięciowe to pojemność i czas przechowywania kodowanych w nich informacji. Jedne z pierwszych badań, kluczowych dla precyzyjnego oszacowa nia tych właściwości, wykonano w latach 50. XX w. Pierwsze dane wskazywały, że czas przechowywania nawet niewielkich porcji informacji w STM wynosi od kilku do kilkunastu sekund, w zależności od przyjętego kryterium poziomu odpamiętania (zob. paradygmat 8.3). Badania Petersonów (Peterson, Peterson, 1959) wykazały, że w poprawne odtwarzanie materiału z pamięci krótkotrwałej spada poniżej 50% po ok. 7 s. O tak słabych rezultatach decyduje szczególny rodzaj materiału i procedury tych badań. Możliwość zastosowania różnych mnemotechnik, a przede wszystkim swobodnego wykorzystania mechanizmu bezgłośnego powtarzania, pozwala na znaczące przedłużenie czasu przechowy wania informacji w STM. Paradygmat 8.3
1 Procedura badania pamięci krótkotrwałej Browna-Petersonów
SW procedurze eksperymentalnej Browna (1958) I Petersonów (Peterson, Peterson, | 1959) eksponowano zestawy trzech bezsensownych spółgłosek, np. XLR, oraz trzycyfrową liczbę, np. 123. Zadanie osoby badanej polegało na zapamiętaniu zestawu liter, a następnie głośnym odliczaniu trójkami wstecz, poczynając od za prezentowanej liczby (120, 117, 114 itd.). Po upływie pewnego czasu należało przerwać odliczanie i odpamiętać zestaw spółgłosek. Manipulacji eksperymentalnej podlegał interwał czasu pomiędzy ekspozycją zestawu spółgłosek (i liczby), a poleceniem jego odtworzenia. Wynosił on 3, 6, 9, 12, 15 albo 18 s. Celowo zastosowano bezsensowne zestawy spółgłosek, nie mające swojego odpowiednika w języku, aby wyłączyć tzw. strategię grupowania (chunking strategy), polegającą na łączeniu materiału w większe całości (zob. opis w tekście). Dlatego wyeliminowano zestawienia w rodzaju MSW albo CCC, które łatwo poddają się grupo-
*
:] ■'
i
f f
®
344
Rozdział 8. Pamięć
I waniu. Z kolei odliczanie trójkami wstecz miało na celu zminimalizowanie udziału J mechanizmu bezgłośnego powtarzania. Uzyskane rezultaty dotyczące poprawności odtworzenia zestawów spółgłosek I zilustrowano na ryc. 8.5. Okazało się, że poziom odpamiętania sylab bardzo szybko | spada w funkcji czasu, i nawet w wypadku najkrótszego interwału nie osiągnął 100%.
czas przechowywania
Ryc. 8.5. Wyniki uzyskane W eksperymencie Peterson i Petersona (1959).
Podobne rezultaty uzyskał Murdock (1961), stosując procedurę Petersonów, ale po zastąpieniu zestawów spółgłosek słowami. Okazało się, że poziom odtworzenia zestawu 3 słów spadał równie szybko, jak w przypadku bezsensow nych sylab. Przy okazji jest to wynik wskazujący, że jednostki pamięciowe magazynu STM (w których wyraża się „magiczna liczba” Millera, czyli 7 ± 2 ) mogą mieć różną „pojemność” wyrażoną w bitach informacji. Jest to kolejny dowód, że przedstawione powyżej analizy Lehrla i Fischera traktować należy z dużą ostrożnością. W innym warunku eksperymentu Murdocka, kiedy to badani mieli w każdej próbie do zapamiętania tylko jedno słowo, poziom odtworzenia był wysoki (nie spadał poniżej 80%), nawet w przypadku najdłuższego interwału 18 s. Procedura Petersonów, w założeniu mająca na celu eliminację mechaniz mów decydujących o różnicach indywidualnych w funkcjonowaniu pamięci, wprowadza jednak innego typu zakłócenie. Oba zadania wykonywane przez osobę badaną - przechowywanie spółgłosek i odliczanie trójkami wstecz angażują ten sam rodzaj reprezentacji werbalnych. Baddeley (1986) wykazał, że w takim przypadku dochodzi do interferencji, która byłaby znacznie słabsza, gdyby jedno z zadań angażowało inny typ reprezentacji. Zapominanie w pamięci krótkotrwałej może więc mieć różnorodne podłoże. Po pierwsze, informacja zanika z upływem czasu. Zanik ten następuje
8.2. Systemy pamięci przemijającej
345
samoistnie i wydaje się być funkcją spadku aktywacji krótkotrwale wzbudzo nej informacji. Po drugie, w STM dość łatwo dochodzi do interferencji między zawartymi w niej informacjami, tym silniejszej, im bardziej są one do siebie podobne. I po trzecie, ponieważ funkcje kontrolne pamięci krótkotrwałej wią zane są z uwagą, dochodzić może do tzw. przekierowania uwagi (diversion of attention), tj. zaniechania powtarzania jakiegoś materiału na rzecz innego zadania angażującego STM (Reitman, 1974). Sposobem na „powiększenie” pojemności pamięci jest grupowanie {chunk ing). Oczywiście nie chodzi o powiększenie wielkości magazynu STM (jeśli w ogóle mamy do czynienia z magazynem), lecz o zmianę organizacji zapamię tywanego materiału w taki sposób, aby lepiej „upakować” go w pamięci. Polega to na próbie połączenia materiału, którego każda część stanowi pojedynczą „bryłę” {chunk). Przykładowo: ciąg cyfr 123987 łatwo pogrupować, łącząc ra zem 123 i 987. Jeszcze łatwiej pogrupować nawet dłuższe ciągi, np. 123456789 albo 101010101010101010. Strategia grupowania polega niekiedy na nadaniu „bryłom” odrębnego znaczenia. Wówczas jednostką pamięci jest „idea” odno sząca się do zgrupowanego materiału. Jednak, jak zauważyli Bower i Springston (1970), tego rodzaju grupowanie jest ściśle związane z posiadaną wiedzą. Przykładowo, sekwencja liter: U JU WU GSW PS zapewne byłaby trudna nawet do chwilowego przechowania. Jednak jeśli pogrupujemy litery inaczej: UJ UW UG SWPS, utworzą one znane wielu osobom skróty. Dzięki strategii grupowania nie można jednak w nieskończoność zwiększać pojemności pamięci krótkotrwałej. Simon (1974) wykazał, że w STM można zapamiętać mniej dużych „brył” (np. fraz złożonych z ośmiu słów), a więcej ma łych (np. jednosylabowych słów). Wynika to z akustycznego mechanizmu bez głośnej artykulacji jako sposobu podtrzymania zawartości STM. Jeśli jednostka pamięci składa się z większej liczby sylab, to jej powtarzanie zajmować będzie więcej czasu, co decyduje o zmniejszonej efektywności tego mechanizmu. Podob ne rezultaty uzyskali Ellis i Hennly (1980), stosując zadanie wymagające doko nywania obliczeń w pamięci przez dzieci posługujące się językiem angielskim albo walijskim. Podstawową różnicą dotyczącą liczebników w tych dwóch językach jest ich długość: liczebniki angielskie są krótsze niż walijskie. Okazało się, że dzieci z pierwszej grupy wykonywały zadania arytmetyczne istotnie lepiej niż dzieci z grupy drugiej i nie wynikało to z niższego poziomu ich zdolności intelektualnych. Przyjmuje się, że obliczenia w pamięci nie sprowadzają się wyłącznie do prze twarzania informacji, lecz wymagają również przechowywania liczb, na których dokonuje się obliczeń, a także wyników cząstkowych (por. Hitch, 1978). Jeśli mechanizm tego przechowywania polega na bezgłośnej artykulacji, to w ogra niczonej pojemnością pamięci krótkotrwałej „zmieści” się ich tym mniej, im więcej sylab mają powtarzane słowa. Dzieci walijskie potrafią zmieścić w pamięci mniej liczebników, stąd efektywność obliczeń dokonywanych w pamięci okazała się w ich grupie niższa, niż w grupie dzieci angielskich. Powyższe wyniki można interpretować również w odniesieniu do specyfiki kodowania informacji w STM. Nie wydaje się, aby był to abstrakcyjny kod semantyczny, gdyż znaczenie liczebników jest identyczne w języku angielskim i walijskim. Informacja w pamięci krótkotrwałej kodowana jest fonologicznie (albo akustycznie, np. w przypadku melodii), a w każdym razie na tym kodzie pracuje mechanizm wewnętrznych powtórek. Dowodów na fonologiczny cha
346
Rozdział 8. Pamięć
rakter wewnętrznych powtórek dostarczył również Conrad (1963, 1971; Con rad, Hull, 1964). Badacz ten stwierdził większą liczbę pomyłek w odpamiętaniu liter o podobnym brzmieniu, np. „B” i „P”, niż liter, których brzmienie znacząco się różni, np. „B” i „Z”. Efekt ten wystąpił w warunkach zarówno słuchowej, jak i wzrokowej prezentacji bodźców. Baddeley (1966) potwierdził ten efekt rów nież w odniesieniu do słów. Słowa o podobnym brzmieniu (np. man, mad, map) okazały się trudniejsze do wydobycia - szczególnie jeśli wymagano odpowied niej kolejności przywołania - niż słowa o wyraźnie różnym brzmieniu (np. pen, few, cow). Baddeley nazwał go efektem podobieństwa fonologicznego (phonological similarity effect). Osobnym problemem w badaniach nad pamięcią krótkotrwałą jest mecha nizm przeszukiwania jej zawartości. Problem ten może wydawać się ważniejszy w odniesieniu do bardzo obszernej LTM, niż bardzo ograniczonej pojemnością STM, jednak analizy te okazały się istotne dla głębszego zrozumienia właściwości pamięci krótkotrwałej. Podstawowy paradygmat badawczy stoso wany w analizie mechanizmu przeszukiwania STM jest bardzo podobny do stosowanego w badaniach nad uwagą (zob. paradygmat 8.4). Rezultaty badań w obu obszarach, częściowo zbieżne, interpretowane były przez niektórych ba daczy na korzyść tezy o wspólnej lokalizacji procesów uwagowych i pamięcio wych (np. Guilford, Juola, 1976). Współczesne koncepcje pamięci roboczej, będące procesualnym ujęciem tradycyjnie rozumianej pamięci krótkotrwałej, akcentują związek pamięci i uwagi, lecz te ostatnie uważają za odrębne od procesów uwagi percepcyjnej. Paradygmat 8.4
; Przeszukiwanie pamięci krótkotrwałej
Zadanie wymagające przeszukiwania (search task) stosowane jest zarówno w ba daniach nad uwagą, jak i nad pamięcią. Polega ono na prezentacji zbioru bodźców (search set), w którym poszukiwany jest bodziec docelowy (target, probe). Ma teriałem bodźcowym najczęściej stosowanym w tego typu zadaniach są litery i cyfry, ale również obrazy, słowa, czy dźwięki. Zadaniem osoby badanej jest udzielenie odpowiedzi twierdzącej, jeśli sygnał (zgodny z bodźcem docelowym) był obecny w zaprezentowanym zestawie (próby pozytywne), albo przeczącej, kiedy był w nim “ nieobecny (próby negatywne). Podstawową zmienną podlegającą manipulacji w tego rodzaju zadaniach jest rozmiar przeszukiwanego zbioru (set size). W zadaniach polegających na przeszukiwaniu pamięci (memory search task) zadaniem osób badanych jest zapamiętanie prezentowanego zestawu bodźców. Prezentacja najczęściej odbywa się sekwencyjne, ale niekiedy również symulta nicznie. W warunku prezentacji sekwencyjnej zestaw bodźców prezentowany jest element po elemencie. Prezentacja symultaniczna polega na jednoczesnym zapre zentowaniu całego zestawu, np. w postaci matrycy. Bodziec docelowy eksponof wany jest po zaprezentowaniu całego zbioru elementów. Manipulacji eksperymen\ talnej podlega w tym przypadku - poza rozmiarem zbioru elementów - również : :i'; szereg innych czynników. Najważniejsze z nich to: czas ekspozycji przypadający na pojedynczy element, proporcja reakcji pozytywnych do negatywnych oraz rodzaj prezentowanego materiału. Przykładowo, manipulacja czasem ekspozycji wpływa
8.2. System y pam ięci przem ijającej
347
na sposób kodowania bodźców: im jest on dłuższy, tym więcej właściwości można zakodować. Jeśli czas jest zbyt krótki, kodowanie materiału będzie nieefektywne, podobnie jak późniejsze rozpoznanie, czy bodziec docelowy jest zgodny z którymś elementów zapamiętanego zestawu. Jeśli czas ten jest zbyt długi, możliwe staje się zastosowanie mnemotechnik, np. grupowania. W obu przypadkach na poziom wykonania zadania wpływać będą niekontrolowane czynniki uboczne. W zadaniu polegającym na przeszukiwaniu analizie podlegają głównie wskaźni ki związane z czasem reakcji, tj. miary tendencji centralnej, czyli średnia i mediana RT (Van Zandt, Townsend, 1993), a także miary rozrzutu - odchylenie standardowe RT (Townsend, 2001). Zdecydowanie rzadziej analizuje się poprawność reakcji, gdyż w klasycznych badaniach liczba błędów była niska, a ich rozkład - wyraźnie skośny.
Badania nad mechanizmami przeszukiwania pamięci krótkotrwałej zapo czątkował Saul Sternberg (1966, 1969b). W użytej przez niego wersji zadania polegającego na przeszukiwaniu STM, sekwencyjnie prezentowano losowo do brane cyfry, zgrupowane w zestawy o rozmiarze od 1 do 6 elementów. Czas prezentacji przypadający na każdy element wynosił 1,2 s. Po przedstawieniu całego zestawu pokazywano bodziec docelowy. Zadaniem osoby badanej było stwierdzenie, czy bodziec ten znajdował się w prezentowanym wcześniej zbiorze. Sternberga interesowała odpowiedź na dwa pytania: „Czy przeszukiwanie pamięci jest procesem sekwencyjnym, przebiegającym element po elemencie, czy też równoległym, obejmującym jednocześnie wszystkie elementy?” i „Czy przeszukiwanie w próbach pozytywnych jest kompletne (zawsze dotyczy całego zbioru), czy też jest wygaszane w momencie odnalezienia bodźca docelowego w STM?” Konkluzje z pierwszych badań Sternberga (1966, 1969) były takie, że przeszukiwanie pamięci krótkotrwałej jest procesem sekwencyjnym i wyczer pującym. Przeszukiwanie sekwencyjne (serial search) oznacza, że w danym momencie przetwarzany może być jeden i tylko jeden bodziec, wobec czego przeszukanie całego zbioru wymaga porównania po kolei każdego elementu zawartego w STM z bodźcem docelowym. O sekwencyjności przeszukiwania Sternberg wnioskował na podstawie liniowego przyrostu czasu reakcji w zależ ności od wielkości zbioru elementów (zob. ryc. 8.6). Okazało się, że czas reakcji rośnie liniowo wraz ze zwiększaniem się rozmiaru przeszukiwanego zbioru elementów, przeciętnie o 37,9 + /- 3,8 ms na każdy symbol. Jeśli przeszukiwanie byłoby równoległe (parallel search) to, zdaniem Sternberga, nie powinien ujawnić się taki wzorzec zależności. Funkcja czasu reakcji (RT) od wielkości zbioru elementów powinna być płaska, bowiem równoległy dostęp do 2, 4 czy 6 elementów byłby zawsze tak samo szybki. Z kolei przeszukiwanie wyczerpujące (exhaustive search) oznacza, że do tyczy ono wszystkich zapamiętanych elementów, zarówno w próbach negatyw nych, jak i pozytywnych. O ile w przypadku prób negatywnych jest to teore tycznie uzasadnione (żeby „wiedzieć”, że w zestawie nie było bodźca docelo wego trzeba porównać go z całą zawartością zestawu), o tyle byłoby to zaska kujące w próbach pozytywnych. W tym przypadku, przeszukiwanie może zostać wygaszone (self-terminated search) po stwierdzeniu zgodności bodźca docelo wego z którymś z elementów zestawu, czyli powinno - średnio w dużej liczbie
348
Rozdział 8. Pamięć
liczba symboli, s
Ryc. 8.6. Czas reakcji (T) a liczba symboli przechowywanych w pamięci (s) w pierwszym eksperymencie. Średni czas reakcji w warunku pozytywnym (czarne punkty) i negatywnym (białe punkty). Predykcje modelu przeszukiwania sekwencyjnego (linia ciągła) wykazują lepsze dopasowa nie do danych niż predykcje modelu przeszukiwania równoległego (linia przerywana). Za: Sternberg, 1966, s. 653.
wielkość zestawu pozytywnego, s
Ryc. 8.7. Czas reakcji (T) a wielkość zestawu pozytywnego (s) w drugim eksperymencie. Średni czas reakcji w warunku pozytywnym (czarne punkty) i negatywnym (białe punkty). Predykcje modelu przeszukiwania sekwencyjnego (linia ciągła) wykazują lepsze dopasowanie do danych niż predykcje modelu przeszukiwania równoległego (linia przerywana). Za: Sternberg, 1966, s. 653.
prób - odpowiadać przeszukaniu połowy zestawu. Czas reakcji w próbach po zytywnych powinien być zatem znacząco krótszy niż w negatywnych. Sternberg nie uzyskał istotnej różnicy w RT między reakcjami pozytywnymi a negatyw nymi, co uznał za dowód na wyczerpujący i automatyczny charakter przeszu kiwania w obu warunkach (zob. ryc. 8.7). Jedną z cech procesów automatycz nych jest to, że po ich zainicjowaniu nie można ich modyfikować ani przerwać. Ponieważ przeszukiwanie w próbach pozytywnych teoretycznie powinno zostać wygaszone po stwierdzeniu zgodności jednego z elementów przechowywanych
8.2. Systemy pamięci przemijającej
349
w STM z bodźcem docelowym, a jednak było kontynuowane do momentu sprawdzenia całego zbioru, Sternberg uznał, że przebiega ono automatycznie. W późniejszych badaniach wykazano istotność różnicy w czasie reakcji pomiędzy próbami negatywnymi a pozytywnymi, zgodną z modelem wyczerpu jącego przeszukiwania w pierwszym przypadku i samowygaszającego się w dru gim (np, Egeth, Jonides, Wall, 1972; przegląd badań w: Van Zandt, Townsend, 1993). Podważono również założenie, że przetwarzanie równoległe zawsze generuje płaską funkcję czasu reakcji w zależności od wielkości zbioru elemen tów. Jeśli założyć, że proces przetwarzania informacji jest limitowany pojem nością systemu (capacity limited), to wzrastające obciążenie poznawcze pro wadzi do podziału ograniczonych zasobów na coraz większą liczbę elementów. W związku z tym większy rozmiar zbioru oznacza mniej zasobów przypadają cych na pojedynczy element. W przypadku STM oznacza to mniejsze „doin westowanie” procesu przeszukiwania, co prowadzi do wzrostu czasu reakcji, nawet gdyby było ono równoległe. Model sekwencyjnego i wyczerpującego przeszukiwania podważono jesz cze w inny sposób. Mianowicie nie przewiduje on tzw. efektu pozycji, czyli związku czasu reakcji z pozycją sygnału w zestawie (por. Van Zandt, Townsend, 1993). Okazało się, że wykryto istotny efekt skracania się czasu reakcji na elementy znajdujące się na ostatnich pozycjach (Townsend, 1974; Townsend, Roos 1973). Jeśli przeszukiwanie byłoby wyczerpujące, to nie miałoby znacze nia, na której pozycji jest bodziec docelowy, bowiem do udzielenia odpowiedzi trzeba i tak przeszukać cały zbiór, więc ogólny czas reakcji byłby sumą czasów poszczególnych porównań. Suma ta byłaby identyczna niezależnie od tego, czy sygnał znajdował się na pierwszej, ostatniej, czy którejś ze środkowych pozycji w zbiorze. 8.2.3. Pamięć robocza: w ielokom ponentowy model Baddeleya Idea pamięci roboczej (working memory, WM) pochodzi od Alana Baddeleya i Grahama Hitcha (1974). Autorzy zerwali z ujęciem pamięci krótkotrwałej jako systemu wyspecjalizowanego wyłącznie w przechowywaniu informacji. W ujęciu Baddeleya i Hitcha pamięć robocza jest systemem odpowiedzialnym zarówno za przechowywanie, jak i przetwarzanie informacji. Odgrywa ona zasadniczą rolę w złożonej aktywności poznawczej człowieka, bowiem z jej udziałem miałoby odbywać się wszelkie kontrolowane przetwarzanie informacji. Pomimo znacznej różnorodności modeli pamięci roboczej, większość z nich akcentuje funkcję kontrolną, sprawowaną przez uwagowy mechanizm planowania i nadzoru. Oberauer, Süß, Wilhelm i Wittmann (2003), dokonując przeglądu różnych teorii pamięci roboczej, wyróżnili cztery podstawowe funkcje tego systemu. Są to: przechowywanie (storage), przetwarzanie (processing), nadzorowanie (supervi sion) oraz koordynacja (coordination). Pierwsza z nich związana jest z klasycz nie ujmowaną funkcją pamięci krótkotrwałej, chociaż modele pamięci roboczej odchodzą od czysto magazynowego rozumienia jej realizacji. Pozostałe trzy funkcje WM przypisywane są uwagowemu mechanizmowi kontrolnemu. W ni niejszym rozdziale opisano najważniejsze koncepcje pamięci roboczej, począw szy od przełomowej teorii Baddeleya i Hitcha.
350
Rozdział 8. Pamięć
Pamięć robocza w ujęciu Baddeleya i Hitcha (1974; zob. też Baddeley, 1986) jest wielokomponentowym systemem odpowiedzialnym za przechowy wanie informacji i kontrolę jej przetwarzania. Ze względu na zaakcentowanie aspektu przetworzeniowego, WM odgrywa istotną rolę w złożonej aktywności poznawczej człowieka, np. rozumowaniu czy przetwarzaniu języka. Początkowo teoria Baddeleya i Hitcha obejmowała trzy podsystemy: centralny system wy konawczy (central executive) i dwa podlegle mu bufory pamięciowe (slave systems) - pętlę fonologiczną (phonological loop) i szkicownik wzrokowo-przestrzenny (visuo-spatial sketch-pad). Podstawową funkcją buforów jest krótko trwałe przechowywanie informacji - odpowiednio - w kodzie akustycznym (ze szczególnym uwzględnieniem kodu werbalnego) i w kodzie wizualnym. W ko lejnej wersji teorii (Baddeley, 2000, 2001) uzupełniono ją o bufor epizodyczny (episodic buffer), którego funkcją ma być przechowywanie złożonej informacji, pochodzącej z kilku modalności. I właśnie tę wersję modelu Baddeleya zilustro wano na ryc. 8.8.
szkicownik wzrokowo - przestrzenny
pętla fonologiczną pętla artykulacyjna
t i
bufor epizodyczny
magazyn fonologiczny
Ryc. 8.8. Wielokomponentowy model pamięci roboczej wg Baddeleya (2000, s. 421).
Centralny system wykonawczy ze względu na wielość przypisywanych mu funkcji jest systemem niejednorodnym. Jest czymś w rodzaju poznawczego homunculusa, co przyznaje sam twórca koncepcji WM (Baddeley, Logie, 1999). W długiej ewolucji modelu Baddeleya zmieniały się jego poglądy w tej kwestii. Z przeglądu jego prac wynika, iż można wyróżnić trzy funkcje centralnego systemu wykonawczego. Pierwszą funkcją jest bieżące przetwarzanie informacji. Z tego powodu WM odgrywa istotną rolę w wykonywaniu złożonych zadań poznawczych, np. w ro zumowaniu (por. rozdz. 10.7.2). Funkcja ta sprowadza się do realizacji kon-
8.2. Systemy pamięci przemijającej
351
kretnych operacji poznawczych, wchodzących w skład strategii wykonania określonego zadania. Operacje te są realizowane z udziałem podsystemów pa mięciowych, podlegających centralnemu systemowi wykonawczemu. W tych podsystemach przechowywane są kluczowe dane, niezbędne do realizacji prze twarzania, w tym wskazówki dotyczące strategii. Te ostatnie określają zestaw operacji przetwarzania informacji, aplikowanych w celu wykonania konkret nego zadania poznawczego. Efektywne przetwarzanie informacji wymaga koordynacji buforów pamięci roboczej, co stanowi kolejną funkcję centralnego systemu wykonawczego. Funkcja ta ujawnia się szczególnie w czasie wykonywania zadań jednoczesnych (zob. paradygmat 8.5), wymagających rozdzielania zasobów centralnego systemu wykonawczego między jednocześnie wykonywane zadania poznawcze. Baddeley zakłada, że system ten cechuje się limitowaną pojemnością, rozumianą w kategoriach ograniczonych zasobów uwagowych (Baddeley, Della Sala, 1998; Baddeley, Logie, 1999). Ograniczenie to przejawia się przede wszystkim w spad ku szybkości przetwarzania informacji wraz ze wzrostem wymagań, jakie na kłada na WM zadanie realizowane w danym momencie. Paradygmat 8.5
Paradygmat zadań jednoczesnych w badaniach nad pamięcią roboczą Paradygmat zadań jednoczesnych, stosowany również w badaniach nad uwagą podzielną, wymaga kontroli dwóch zadań (A i B), wykonywanych w tym samym czasie. W wersji zastosowanej przez Baddeleya i Hitcha (1974) zadanie A polegało na wykonywaniu złożonego zadania poznawczego, np. przeprowadzaniu wniosko wania logicznego, czytaniu tekstu ze zrozumieniem albo uczeniu się. Z kolei zadanie B polegało na zapamiętywaniu zestawu elementów (liczb) o zmiennej długości. W analizie wyników porównuje się poziom wykonania zadania A w warunkach, gdy towarzy mu zadanie B z warunkiem kontrolnym. W najprostszej wersji para dygmatu zadań jednoczesnych warunkiem kontrolnym jest test wykonania zadania A, kiedy nie towarzyszy mu żadne inne zadanie. Niekiedy manipulacji ekspery mentalnej podlega waga zadań jednoczesnych. Najczęściej jedno z nich należy traktować priorytetowo, a drugie jako dystraktor. Baddeley i Hitch (1974) założyli, że rosnące obciążenie pamięci roboczej przechowywaniem większych zbiorów liczb prowadzić będzie do spadku wyko nania złożonego zadania poznawczego. Badania potwierdziły te przypuszczenia. Wyjaśniono je, podobnie jak w badaniach nad uwagą podzielną, spadkiem ilości wolnych zasobów, w tym wypadku zasobów WM, które mogą zostać przydzielone wykonaniu zadania A. Spadek ten jest proporcjonalny do wymagań, jakie stawia zadanie pamięciowe B. Co ciekawe, nawet przy bardzo dużym obciążeniu pamięci (zbliżającym się do wartości „magicznej liczby” Millera), poziom wykonania obu zadań był wyższy od poziomu przypadku. Zadanie pamięciowe może przyjmować różnie formy, w zależności od tego, jaki mechanizm WM ma zostać zaangażowany (Baddeley, 1986). Zadanie pamię ciowe wykonywane na materiale werbalnym (np. odliczanie trójkami wstecz) wiąże się z udziałem pętli fonologicznej. Zadanie niewerbalne (np. śledzenie poruszają cego się obiektu), angażować będzie raczej szkicownik wzrokowo-przestrzeny.
352
Rozdział 8. Pamięć
Specyficznym zadaniem, które powoduje obciążenie centralnego systemu wyko nawczego, bez udziału podsystemów pamięciowych, jest tzw. generowanie inter wałów losowych (Vandierendonck, De Vooght, Van der Goten, 1998). Wymaga ono od osoby badanej nierytmicznego stukania, np. w klawisz komputera. Trudność tego zadania polega na konieczności przełamania automatycznej tendencji do wystukiwania regularnego rytmu. Generowanie losowości wymaga więc stałej kon troli ze strony centralnego systemu wykonawczego.
Trzecia funkcja centralnego systemu wykonawczego to nadzór (kontrola) nad bieżącym przetwarzaniem informacji. Baddeley (1993), analizując tę funkcję nawiązał do koncepcji uwagi wykonawczej Normana i Shallice (1986), której składową jest tzw. nadzorczy system uwagi (supervisory attentional system). Pełni on rolę kontrolną, polegającą na planowaniu i nadzorowaniu wykonania złożonych zadań poznawczych. Jego działanie ujawnia się przede wszystkim w sytuacjach nowych, szczególnie wtedy, kiedy zostaną uznane za trudne lub zagrażające. Nadzór nad bieżącym przetwarzaniem obejmuje również aktualiza cję zawartości buforów pamięciowych. Polega ona na selektywnym „pozbywaniu” się informacji, która z racji wykonywanego zadania nie jest już potrzebna. Jest to szczególnie ważne w kontekście znacznego ograniczenia ich pojemności. W zasadzie można byłoby wyróżnić jeszcze jedną funkcję centralnego systemu wykonawczego, chociaż nie jest ona nowa w koncepcji Baddeleya. Chodzi o jego udział w kodowaniu i przywoływaniu informacji z LTM oraz rzecz jasna - w podlegających mu podsystemach krótkotrwałego przechowywa nia informacji (Baddeley, Logie, 1999). Interesujące dowody, że korzystanie z zasobów pamięci długotrwałej odbywa się z udziałem centralnego systemu wykonawczego, pochodzą z badań Susan Gathercole (1999), w których okazało się, iż krótkotrwałe przechowywanie bezsensownych zlepków liter jest tym bardziej efektywne, im bardziej są one podobne do słów języka naturalnego. Wskazuje to na istotny udział wiedzy językowej pochodzącej z LTM w kodo waniu informacji w pamięci roboczej. Pętla fonologiczna jest jednym z trzech buforów pamięciowych podlegają cych centralnemu systemowi wykonawczemu. Odpowiada za krótkotrwałe przechowanie informacji fonologicznych. Baddeley (1986) wyróżnił dwa me chanizmy przechowywania: pasywny (retention) i aktywny (rehearsal), wyróż niając w pętli fonologicznej dwie odrębne, odpowiadające tym mechanizmom struktury. Pasywne przechowywanie informacji możliwe jest dzięki magazynowi fonologicznemu. Jeśli przechowywana w nim informacja nie byłaby aktywnie odświeżana, zanika w ciągu kilku sekund (średnio po upływie 2 s; Cohen, Kiss, LeVoii, 1993). Zanik śladu pamięciowego jest podstawowym, ale nie jedynym mechanizmem zapominania informacji zawartej w magazynie fonologicznym. Również interferencja, wynikająca z podobieństwa do innej informacji, utrudnia jej efektywne wydobycie. Od pierwszego sformułowania teorii pamięci roboczej Baddeley utrzymuje, że magazyn fonologiczny przechowuje informacje w kodzie fonologicznym, a nie semantycznym, nawet jeśli są to słowa obdarzone pewnym znaczeniem (Baddeley, Logie, 1999). Badania Conrada (1963, 1971; Conrad, Hull, 1964) i Baddeleya (1966) nad efektem podobieństwa fonologicznego, stanowią empi
8.2. Systemy pamięci przemijającej
353
ryczny dowód dominacji kodu fonologicznego w przechowaniu materiału werbalnego (zob. rozdz. 8.2.2). Baddeley (1966) stwierdził istotnie większy wpływ podobieństwa brzmienia słów na liczbę błędów w zadaniu pamięciowym niż ich podobieństwa semantycznego. Nie oznacza to, że materiał werbalny przechowywany w pamięci roboczej nie ma charakteru semantycznego, ale że mechanizm jego odświeżania, odwołuje się do bezgłośnych powtórek wyko rzystujących brzmienie słowa, a nie jego znaczenie. Wskazują na to np. badania McErlee (1996), który zastosował zadanie polegające na przeszukiwaniu pa mięci (zob. paradygmat 8.4). W jego badaniach uczestnicy mieli za zadanie oprócz tradycyjnego sprawdzania zgodności bodźca docelowego z zapamiętanym zestawem elementów - udzielić odpowiedzi na pytanie, czy bodziec docelowy rymuje się z którymś z elementów zestawu albo czy jest synonimem któregoś z nich. Okazało się, że informacja ta była dostępna zarówno z klucza fonolo gicznego, jak i semantycznego. Aktywnym odświeżaniem zawartości magazynu fonologicznego zajmuje się mechanizm pętli artykulacyjnej. Baddeley podtrzymuje, że podstawą jej funkcjonowania jest bezgłośne powtarzanie, podobne do artykulacji mowy (Baddeley, 1998). Ellis i Hennly (1980) uzyskali dane będące spektakularnym dowodem trafności tego mechanizmu (zob. rozdz. 8.2.2). Przypomnijmy, że słowa o dokładnie tym samym znaczeniu w różnych językach (liczebniki), wy korzystywane były przez pamięć roboczą tym gorzej, im były dłuższe. Również Baddeley, Thomson i Buchanan (1975) uzyskali podobne rezultaty wyjaśniając większą trudność odtwarzania dłuższych wyrazów wzrostem czasu ich powta rzania w pętli artykulacyjnej. Inne dowody fonologicznego charakteru działania pętli artykulacyjnej pochodzą z badań, w których wykorzystuje się procedurę tłumienia artykulacyjnego (articulatory suppresion). Polega ona na powtarzaniu narzuconego słowa w trakcie wykonywania zadania pamięciowego. W ba daniach Baddeleya, Thomsona i Buchanana (1975) tłumienie artykulacyjne, polegające na powtarzaniu rodzajnika the, powodowało zmniejszenie liczby zapamiętanych słów. Podobne rezultaty uzyskano w przypadku wizualnej pre zentacji słów, co wskazuje na istotną rolę pętli fonologicznej w rekodowaniu materiału wizualnego na kod werbalny. Szkicownik wzrokowo-przestrzenny jest swego rodzaju analogiem pętli fo nologicznej, z tym, że jego podstawową funkcją jest przechowywanie materiału wzrokowego i przestrzennego. Baddeley długo nie zajmował się detalicznie strukturą tego podsystemu. Dopiero Logie (1995), eksploatując analogię po między podsystemem fonologicznym i wzrokowo-przestrzennym, zaproponował rozróżnienie dwóch mechanizmów funkcjonowania szkicownika. Mechanizm pasywnego przechowywania informacji wzrokowej i przestrzennej realizowany byłby w strukturze podręcznego magazynu wzrokowego (visual cache). Wew nętrzny „skryba” (inner scribe) miałby rolę aktywną, korzystając z procesów modelowania przedruchowego (planowanie sekwencji ruchów) i tworzenia wyobrażeń. W wykonaniu tych procesów wewnętrzny system piszący korzysta z magazynu wzrokowego, czyli ich wzajemne związki są podobne do skła dowych pętli fonologicznej. W badaniach empirycznych uzyskano interesujące wyniki, podobne do efektu tłumienia artykulacyjnego w pętli fonologicznej. Mianowicie Logie (1986) wykazał, że wykonywanie zadania wzrokowego, przy jednoczesnej prezentacji sekwencji obrazów niezwiązanych z tym zadaniem, wpływa negatywnie na przechowywanie informacji wizualnej. W późniejszych
354
Rozdział 8. Pamięć
eksperymentach przeprowadzonych ze współpracownikami (Logie, Zucco, Baddeley, 1990; Logie, Marchetti, 1991) dowiódł, że wykonywanie czynności ruchowych jednocześnie z zadaniem wzrokowo-przestrzennym upośledza przechowywanie informacji o relacjach przestrzennych. Cowan (1999) twierdzi, że kodowanie werbalne może być z powodzeniem zastosowane do materiału niewerbalnego. Jest to oczywiste, kiedy zapamiętu jemy dobrze znane obrazki, np. dom, drzewo. Co więcej, każdy materiał niewer balny możemy w pewien sposób nazwać. Znacznie trudniejsza do werbalizacji jest lokalizacja przestrzenna bodźców, jeśli nie jest trywialna (np. prawo, lewo, góra, dół). Ideę badania pamięci przestrzennej wykorzystano w klasycznym zadaniu „klocki Corsiego” (Corsi blocks, Milner, 1971). W pierwotnej wersji zadania Corsiego, osoba badana ma przed sobą specjalną planszę z 9 roz lokowanymi na niej otworami. W tych otworach sekwencyjnie (w tempie co 1 s) pojawiają się sześcienne klocki. Zadanie polega na zapamiętaniu pozycji prezentowanych klocków i sekwencji ich wyświetlania. Liczba prezentowanych klocków jest zwiększana do momentu, w którym osoba badana zaczyna po pełniać błędy. Vandierendonck, Kemps, Fastame i Szmalec (2004) użyli zadania Corsiego jednocześnie z innym zadaniem angażującym jeden z podsystemów WM: pętlę fonologiczną, szkicownik wzrokowo-przestrzenny albo centralny system wykonawczy. Badacze założyli, że pogorszenie poziomu wykonania za dania Corsiego w warunku zadań jednoczesnych będzie świadczyć o zaangażo waniu określonego systemu WM w jego wykonanie. Okazało się, że klasyczna wersja zadania Corsiego wiąże się z obciążeniem szkicownika wzrokowo-przestrzennego i centralnego systemu wykonawczego. Nie jest natomiast związana z obciążeniem pętli fonologicznej. W opisywanej już wersji modelu Baddeleya (2000, 2001) postuluje się istnienie bufora epizodycznego. Główną jego funkcją byłoby czasowe przecho wywanie zintegrowanych epizodów (integrated episodes), tj. informacji repre zentowanej jednocześnie za pomocą różnych kodów, np. werbalnego i wizual nego. Podobnie jak inne podsystemy magazynowe, bufor epizodyczny jest ogra niczony pojemnościowo i podlega kontroli ze strony centralnego systemu wy konawczego, który odpowiada również za integrowanie informacji z różnych źródeł w spójne epizody (Baddeley, 2000). Za istnieniem bufora epizodyczne go, zdaniem autora, przemawia szereg badań eksperymentalnych dotyczących kodowania i przechowywania złożonej informacji (np. Luck, Vogel, 1997) oraz badania neurobiologiczne (Prabhakaran i in., 2000). Podobnie jak pozostałe podsystemy, bufor epizodyczny uczestniczy w nabywaniu i wydobywaniu in formacji z pamięci długotrwałej. W tym przypadku jest to pamięć epizodyczna (zob. rozdz. 8.3.3). Skądinąd wiadomo, że wiedza epizodyczna kodowana jest w sposób kompleksowy. Epizody kodowane są wraz z ich możliwie najpeł niejszym kontekstem, stąd nie da się tego procesu sprowadzić do pojedyncze go kodu. Kolacja przy świecach jest złożonym epizodem, w którym istotną rolę odgrywają składające się nań zdarzenia, np. elementy rozmowy, zapachy, smaki, emocje. Wszystko ma swoją wewnętrzną logikę następstw czasowych i związków przyczynowo-skutkowych. Wprowadzenie bufora epizodycznego do modelu pamięci roboczej nie stanowi może wyjaśnienia eleganckiego, ale jest interesującą propozycją połączenia funkcji pamięci roboczej z wiedzą epizodyczną.
8.2. Systemy pamięci przemijającej
355
8.2.4. Pamięć robocza: model aktywacyjny Cowana Alternatywą dla wielomodalnościowego modelu Baddeleya są koncepcje jednorodne, które wyjaśniają funkcjonowanie pamięci roboczej bez odwoływa nia się do odrębnych podsystemów krótkotrwałego przechowywania informacji. W ich ramach postuluje się również brak ostrego rozgraniczenia między pamięcią trwałą a roboczą. Oba założenia opierają się na próbach alternatyw nego wyjaśnienia danych eksperymentalnych, o które opiera się model pamięci roboczej Baddeleya. Twierdzi się mianowicie, że pamięć robocza to uaktywnio na, dzięki mechanizmom uwagi, część pamięci długotrwałej. Tym co stanowi ograniczenie pamięci roboczej, ujmowane tradycyjnie w kategoriach jej pojemności, jest nie tyle statyczna właściwość magazynu (bufora), lecz dyna mika procesu aktywacji informacji. Mechanizm uwagowy odpowiedzialny za ten proces pozwala na jednoczesną aktywację niewielkiej liczby elementów. Dzięki aktywacji stają się one dostępne świadomemu przetwarzaniu. Kiedy uwaga jest przenoszona na nowe obiekty, powoduje ich pobudzenie, co jednak wiąże się ze zmniejszeniem albo utratą dostępu do informacji, które były aktywne jeszcze przed chwilą. Uważa się też, że dane eksperymentalne wskazujące na odrębność podsystemów można wyjaśnić odwołując się do zjawiska interferencji, wystę pującego w obrębie uaktywnionej informacji. Jeżeli dwa zadania angażują podobne kody reprezentacji (np. tylko fonologiczne albo tylko wzrokowe) inter ferencja jest silniejsza, niż wówczas, kiedy angażowane są różne kody. Dane te nie stanowią zatem dowodów na odrębność buforów pamięciowych, a jedynie sugerują, że zanik informacji w WM jest skutkiem interferencji (Glass i in., 1985). Jednym z pierwszych autorów ujmujących pamięć roboczą w kategoriach uaktywnionej części pamięci trwałej był Nelson Cowan (1993, 1995). Pamięć robocza, według Cowana, jest rozumiana procesualnie, a więc jako proces poznawczy, który odpowiada za utrzymywanie dostępności informacji w celu realizacji bieżących zadań poznawczych. Z punktu widzenia zawartości infor macyjnej, WM jest aktywną w danym momencie częścią informacji przechowy wanej w LTM. Teorie aktywacyjne nie wymagają przyjmowania założeń dotyczących liczby podsystemów pamięciowych WM. Cowan twierdzi, że nie jest wykluczone istnienie większej ich liczby, bowiem konkretny bodziec szczególnie, jeśli jest złożony - może aktywować różne rodzaje pamięci i być kodowany na wiele różnych sposobów (Cowan, 2001). Oznacza to aktywację różnych systemów pamięci trwałej, ale niekoniecznie każdemu z nich musi odpowiadać odrębny podsystem WM, przeznaczony dla specyficznych rodzajów kodów przetwarzania. W tym sensie Cowan (1999) rozumie pamięć roboczą jako system jednorodny. Aktywacja śladu pamięciowego może przyjąć jeden z trzech poziomów (zob. ryc. 8.9). Najbardziej aktywna informacja znajduje się w ognisku uwagi (focus of attention). Jego pojemność jest niewielka: Cowan szacuje ją na ok. 4 jednostki pamięci. Aktywacja informacji w ognisku oznacza jej udostępnienie świadomości. W krótkim czasie aktywacja informacji spada na tyle, że bez jej ponownego wzbudzenia nie jest już dostępna świadomości, ale może mieć wpływ na procesy bieżącego przetwarzania informacji. Ten pośredni stan aktywacji Cowan utożsamia z pamięcią krótkotrwałą. Informacja niewzbudzona, znajdująca się
356
Rozdział 8. Pamięć
w LTM, potencjalnie podlega uaktywnieniu, ale dopóki tak się nie stanie, nie może być przetwarzana z udziałem centralnego systemu wykonawczego. Ponieważ poziom aktywacji śladów pamięciowych spada wraz z upływem czasu, obserwujemy stopniowe zanikanie zawartości WM. W modelu Cowana dynamika aktywacji śladów jest zdeterminowana czasem, podczas gdy ognisko uwagi ma ograniczoną pojemność. Za wolicjonalne kierowanie uwagi jest odpowiedzialny centralny system wykonawczy. Uwaga może zostać ukierunko wana w dwojaki sposób: na zewnątrz, tj. kiedy aktywacji podlega reprezentacja bodźca pochodząca z pola percepcyjnego, albo do wewnątrz - na dane utrwa lone w LTM. Piotrowski (2004) wykazał, że w obu przypadkach angażowane są zasoby uwagi pochodzące z jednej i tej samej puli. Innymi słowy, niezależnie od źródła informacji (pole percepcyjne czy pamięć długotrwała), jej aktywacja angażuje wspólny mechanizm uwagowy. Model Cowana uwzględnia trzy przypadki, w których informacja sensorycz na zostaje aktywowana w pamięci roboczej (zob. ryc. 8.9). Jednak zanim to się stanie, informacja jest kodowana w pamięci długotrwałej. Po pierwsze, aktywacja jest możliwa dzięki wolicjonalnemu skierowaniu uwagi na jakiś bodziec. Wówczas aktywacja osiąga zwykle taki poziom, że bodziec trafia do ogniska uwagi (bo dziec „a”). Jeśli bodźce są znane i nie wiążą się z zadaniem (bodziec „b” i „c”) podlegają habituacji. Mogą jednak osiągnąć poziom aktywacji istotnie różniący je od zapisów zupełnie nieaktywnych. Jeśli bodźce są nowe, nie podlegają habituacji, co wydaje się mieć walor przystosowawczy, a poziom ich aktywacji jest wystar czająco wysoki, aby objąć je ogniskiem uwagi, nawet bez konieczności jej wolicjonalnego przekierowania (bodziec „d”). Przykładowo, jeśli spojrzeć z tej perspek tywy na odruch orientacyjny, to powoduje on automatyczne przyciągnięcie uwagi i uświadomienie sobie źródła stymulacji. Cowan uwzględnił również dwie drogi sterowania zachowaniem. Pierwsza wymaga zaangażowania centralnego systemu wykonawczego i odpowiada reak cjom kontrolowanym. Z kolei reakcje automatyczne nie angażują centralnego systemu wykonawczego. Jednak w obu wypadkach wzbudzane reprezentacje należą - zdaniem Cowana - do obszaru pamięci krótkotrwałej zawierającego reprezentacje o średnim poziomie aktywacji. Analizując różne dane, Cowan (1995, 2001), oszacował pojemność ogniska uwagi na elementy o bardzo dużej dostępności. Korzystając z zadania polegającego na przeszukiwaniu WM, Cowan (1995) wykazał, że czas reakcji na sygnały znajdujące się na kilku ostatnich pozycjach zestawu jest wyraźnie krót szy niż czas reakcji na sygnały pojawiające się wcześniej. Również poprawność przeszukiwania jest wyższa, niż w wypadku elementów eksponowanych na wcześniejszych pozycjach w zestawie (zob. ryc. 8.10 i 8.11). Okazało się również, że w obrębie zestawu o rozmiarze do czterech elemen tów nie występuje zjawisko interferencji proaktywnej (Halford, Maybery, Bain, 1988). Wcześniej nabyte bodźce nie wpływają na możliwość przyswajania kolej nych. Efekt ten okazał się niezależny od podobieństwa fonologicznego bodź ców (Tehan, Humphreys, 1995). McErlee (1998) interpretuje te dane na korzyść tezy o wysokiej dostępności informacji znajdujących się w ognisku uwagi. Dostępność informacji w ognisku uwagi jest na tyle wysoka, że nie potrzeba żad nych procesów jej wydobycia. Stan ten jest jednak bardzo krótkotrwały. Wpro wadzenie dodatkowego zadania między ekspozycją ciągu elementów a bodźcem
8.2. Systemy pamięci przemijającej
357
0 C
c
o E N 0
'c. 0 O © 'N "O
nO
©
nowy @ bodziec
Ryc. 8.9. Aktywacyjny model pamięci roboczej wg Cowana (1998).
Ryc. 8.10. Obserwowany i symulowany czas poprawnych reakcji (ms) w zadaniu polegającym na przeszukaniu WM. Wyniki dotyczą kolejnych pozycji i różnych liczebności zbioru bodźców do zapamiętania (4, 7 i 10). OBS obserwowane wyniki empiryczne, SYM - wyniki symulacji w modelu ACT-R. Za: Chuderski, Orzechowski, 2005.
docelowym, niemal całkowicie eliminuje efekt pełnej dostępności. McErlee (1998) twierdzi jednak, że uprzywilejowanie bodźców w ognisku uwagi dotyczy tylko jednego, ostatnio eksponowanego albo najbardziej pobudzonego elementu. Zdaniem Oberauera i Kliegla (2001), na owo ograniczenie wpływają dwa czyn niki. Po pierwsze, reprezentacje podobnych obiektów kodowanych w pamięci roboczej, posiadających wspólne cechy, częściowo się przenikają. Po drugie, wy stępuje zjawisko rywalizacji między reprezentacjami tych obiektów, w momencie podejmowania decyzji o zgodności (albo jej braku) między bodźcem docelo wym a zawartością WM. Te dwa czynniki wiążą się z różnymi fazami procesu pamięciowego: pierwsze z kodowaniem, a drugie z wydobywaniem informacji z WM.
358
Rozdział 8. Pamięć
Ryc. 8.11. Obserwowany i symulowany odsetek poprawnych reakcji w zadaniu polegającym na przeszukaniu WM. Wyniki dotyczą kolejnych pozycji i różnych liczebności zbioru bodźców do zapamiętania (4, 7 i 10). OBS obserwowane wyniki empiryczne, SYM - wyniki symulacji w modelu ACT-R Za: Chuderski, Orzechowski, 2005.
Ramka 8.2
Metody pomiaru pojemności pamięci roboczej
W metodach pomiaru pojemności pamięci roboczej nawiązuje się do kategorii zadań, stosowanych do pomiaru pojemności pamięci krótkotrwałej (span task). Klasyczne zadania tego typu polegały na zapamiętywaniu zestawów liczb (digit span) lub wyrazów (word span). Następnie sprawdzano poziom odpamiętania materiału w kolejności zgodnej z sekwencją prezentacji, szacując jaki jest pułap możliwości obciążenia pamięci osoby badanej. Pomiar pojemności pamięci roboczej wymagał jednoczesnego uchwycenia efektywności przechowywania i przetwarzania informacji. Opracowano wiele wersji zadań, które wymagały jednocześnie dokonywania operacji poznawczych na prezentowanym materiale i zapamiętywania wyników tych operacji. Na szczególną uwagę zasługują dwie wersje tego typu zadań. Pierwsza wersja polega na głośnym czytaniu prezentowanych zdań i zapamiętywaniu słowa, znajdującego się na końcu z każdego z nich (reading span task; Daneman, Carpenter, 1980). Głośne czytanie angażuje centralny system wykonawczy, a zapamiętywanie słów - pętlę fonologiczną. Druga wersja zadania wymaga rozwiązania prezentowanych kolejno zadań arytmetycznych oraz zapamiętania towarzyszących im słów (operation-word span task; Turner, Engle, 1989). Czas i poprawność wykonania zadań arytmetycznych jest wskaźnikiem sprawności centralnego systemu wykonawczego, a liczba zapa miętanych słów - pętli fonologicznej.
8 .2 .5 . Model długotrwałej pamięci roboczej Ericssona i Kintscha Ericsson i Kintsch (1995) zaproponowali rozszerzony model pamięci roboczej, powiązanej z przechowywaniem informacji w pamięci długotrwałej. Koniecz ność tworzenia tego typu modeli wynika, zdaniem autorów, z deficytów kia-
8.2. Systemy pamięci przemijającej
359
sycznych teorii pamięci roboczej, które nie są w stanie trafnie opisać złożonych procesów poznawczych obecnych zarówno w sytuacjach codziennych (np. ro zumienie tekstu), jak i w korzystaniu z wiedzy eksperckiej. Zdolność rozu mienia tekstu wymaga kodowania i wydobywania z LTM informacji będących produktami złożonych operacji przetwarzania informacji, a jednocześnie anga żuje tradycyjnie rozumianą STM. Według autorów, pamięć robocza ma za zadanie utrzymywanie efektyw nego i selektywnego dostępu do informacji, która jest niezbędna do wykonania danego zadania (Ericsson, Delaney, 1999; Ericsson, Kintsch, 1995). Funkcja ta może być realizowana skutecznie dzięki dwóm mechanizmom poznawczym: krótkotrwałej pamięci roboczej (short-term working memory, ST-WM) i dłu gotrwałej pamięci roboczej (long-term working memory, LT-WM). Zadaniem ST-WM jest - jak w klasycznych koncepcjach WM - magazynowanie danych i półproduktów, niezbędnych do bieżącego wykonania złożonych procesów poznawczych, takich jak rozumowanie, rozumienie tekstu czy uczenie się. Zadaniem LT-WM jest utrzymanie czasowego dostępu do informacji z pamięci trwałej. LT-WM pozwala na ominięcie bardzo małej pojemności ST-WM po przez magazynowanie w niej efektów bieżącego przetwarzania. Powstałe w ten sposób ślady pamięciowe są trwalsze niż w ST-WM, co nie oznacza, że zostają zapisane w trwałych strukturach wiedzy. Zwykle nie jest to zresztą potrzebne, bowiem LT-WM przechowuje efekty przetwarzania, które nie są jeszcze osta tecznym wynikiem czynności poznawczej, np. końcowym wnioskiem w rozu mowaniu. Podczas korzystania z LT-WM krótkotrwała pamięć robocza zostaje obciążona wskazówkami pozwalającymi na wydobycie właściwych informacji z pamięci długotrwałej. Autorzy powołują się m.in. na efekty analiz wpływu treningu na funkcjo nowanie pamięci roboczej. Ericsson (1985, 1988) podaje wiele spektakularnych przypadków osób, które uzyskiwały po takim treningu zadziwiające efekty. Na przykład zanotowano przypadki badanych, którzy po długim treningu byli w stanie odtworzyć poprawnie zestaw o rozmiarze do 80 cyfr. Przeciętnie badani po 50 godzinach treningu byli w stanie poprawnie odtworzyć ok. 20 cyfr. O zaangażo waniu pamięci długotrwałej w uzyskanie tak dobrych wyników świadczy, zda niem Ericssona i Kintscha (1995), brak wpływu interferencji wywołanej w STM przed odtwarzaniem zapamiętanego zestawu. Pomimo wykonywania zadania dystrakcyjnego, wymagającego zaangażowania pojemności STM, badani popraw nie odtwarzali zapamiętany zestaw, z uwzględnieniem kolejności zawartych w nim cyfr. Efekt ten był jednak ograniczony wyłącznie do danego typu materiału; po jego zmianie poziom wykonania zadań pamięciowych wskazywał na pojemność STM wynoszącą ok. 7 elementów. Trening nie spowodował więc trwałego zwiększenia pojemności STM i nie da się w pełni wyjaśnić strategią grupowania elementów w pamięci roboczej. Nawet jeśli kodowanie długich ciągów cyfr anga żuje tę strategię, to tylko na podstawie zapisu w pamięci trwałej. Zaangażowa niem LT-WM autorzy tłumaczą również efektywność kodowania informacji przez ekspertów w trakcie wykonania zadań z zakresu ich specjalności. Chodzi o badania nad pamięcią incydentalną szachistów (np. Charness, 1981b), gdzie zadanie polega na zapamiętywaniu czegokolwiek, po czym niespodziewanie sprawdza się właśnie zawartość pamięci. Okazało się, że szachiści zdecydowanie lepiej odtwarzali prezentowane im układy figur na szachownicy, które mogły być
360
Rozdział 8. Pamięć
elementem jakiejś partii, niż liczbę figur szachowych, których kolor był zgodny z kolorem pola, na którym one stały. Oba zadania dotyczyły pamięci różnych elementów partii szachowej, ale tylko pierwsze zadanie było powiązane z umie jętnościami istotnymi w prawdziwej grze. Podobne rezultaty uzyskano w wyniku badania incydentalnej pamięci konfiguracji kart do gry, gdy osobami badanymi byli eksperci brydżowi (Charness, 1979). W obu przypadkach wyniki testów pa mięciowych skorelowane były dodatnio z poziomem ekspertywności. Podobne efekty uzyskano także w innych grupach eksperckich, np. doświadczonych le karzy, którzy lepiej niż nowicjusze pamiętali swoich pacjentów po badaniach i postawieniu diagnozy (Norman i in., 1989). Uruchomienie mechanizmów długotrwałej pamięci roboczej jest możliwe wyłącznie w określonych warunkach. Po pierwsze, jednostka musi być zdolna do szybkiego kodowania informacji w LTM, co wymaga dysponowania szeroką wiedzą i dostrzegania wzorców charakterystycznych dla problemów specyficz nych dla wybranej dziedziny. Dane empiryczne wskazują, że tego rodzaju zdolności posiadają nie tylko osoby o wybitnej pamięci, ale również - w zakresie specjalistycznej wiedzy - eksperci w danej dziedzinie. Po drugie, wykonywane działanie musi być doskonale znane, bowiem tylko wówczas możliwa jest efek tywna antycypacja tego, jaka informacja będzie za chwilę potrzebna. Przecho wywanie przypadkowych danych, nawet w większej ilości i przez dłuższy czas niż to jest możliwe w STM, nie powoduje zwiększenia efektywności wykonania zadań poznawczych. I po trzecie, informacje przechowywane w LT-WM muszą być powiązane z odpowiednimi wskazówkami wydobycia. Związek ten pozwala na odtworzenie warunków kodowania (por. teoria poziomów przetwarzania Craika i Lockharta) i wydobycie poszukiwanych informacji z LTM dzięki akty wacji wskazówek. Wskazówki mogą być zorganizowane w większe, trwałe struktury wydobywania (retrieval structure). 8.2 .6 . Pamięć prospektywna Badania nad pamięcią dotyczą najczęściej mniej lub bardziej oddalonych od teraźniejszości wydarzeń z przeszłości. W tym względzie pamięć prospektywna (prospective memory, PM) stanowi wyjątek, bowiem dotyczy działań, które dopiero mają zostać podjęte. Poczynione plany są w pewien sposób utrwalane w pamięci: możemy kilka dni wcześniej zaplanować generalne sprzątanie biur ka, ale treścią zapisu pamięciowego jest przyszłość. W badaniach nad pamięcią prospektywną chodzi głównie o działania intencjonalne, bowiem czynności rutynowe nie podlegają planowaniu - auto matycznie uruchamia je określony kontekst. Nie czynimy specjalnych planów, że np. wieczorem umyjemy zęby, bowiem jest to czynność rutynowa. Możemy jednak zaplanować, że w nadchodzący czwartek wieczorem wybierzemy się do kina czy napiszemy list. Nie wiadomo, czy pamięć prospektywna jest odrębnym rodzajem pamięci w sensie kryteriów wyróżnionych przez Tulvinga (1984; zob. rozdz. 8.1). W ba daniach Kvavilashvili (1987) okazało się, że pamięć prospektywna i retro spektywna wydają się - przynajmniej częściowo - niezależne. Badaczka popro siła uczestników eksperymentu poświęconego pamięci retrospektywnej, aby
8.2. Systemy pamięci przemijającej
361
przypomnieli jej o konieczności przeprowadzenia jeszcze jednego testu na zakończenie badań. Osoby z „dobrą” pamięcią prospektywną, które przy pomniały o dodatkowym teście, nie różniły się w zadaniu na pamięć retro spektywną od osób, które o nim zapomniały. Najczęściej przyjmuje się, że funkcje pamięci prospektywnej realizowane są zarówno dzięki STM, jak i LTM. Jednak nawet w tym ujęciu wyróżnia się kilka jej rodzajów. Pierwszy podział PM uwzględnia perspektywę czasową: bliską i odległą. Podział ten nie jest może ścisły, ale w uproszczeniu można przyjąć, że bliskie plany w większym stopniu angażowałyby STM, a plany odległe - LTM. Drugi podział dotyczy wskazówek wykonania planowanego działania. Chodzi o to, czy jest ono związane z konkretnym momentem w czasie (time-based PM), np. „dziś o 20.00 mam zażyć lekarstwo”, czy raczej z jakimś wydarzeniem albo kontekstem (event-based PM), np. „przechodząc obok księgarni, wstąpię po nową książkę mojego ulubionego autora”. Marsh, Hicks i Landau (1998) badali strukturę planów w perspektywie jednego tygodnia. Osoby badane odpamiętywały przeciętnie 15 różnych działań zaplanowanych w tym okresie. Około 25% tych planów nie było zrealizowanych, głównie z powodu korekt dokonanych w planach albo zmiany priorytetów. Natomiast ok. 3% planów nie realizowano, ponieważ o nich zapomniano. Porównując plany związane z konkretnym momentem czasowym albo pewnym zdarzeniem, możemy stwierdzić, że częściej zapominamy o tych pierwszych. Sellen i współpracownicy (1997) poprosili badanych o wykonanie pewnej czynności albo w określonym czasie, albo w pewnym miejscu. W pierwszym wypadku badani w 33% przypadków przypomnieli sobie o jej wykonaniu, podczas gdy w drugim - w 52%. Autorzy wyjaśnili uzyskane rezultaty źródłem wskazówek, które są brane pod uwagę w obu sytuacjach. Plany związane z określonym miejscem są realizowane w większym stopniu dzięki wskazów kom zewnętrznym, czyli danymi (data-driven). Znalezienie się w określonym miejscu jest czynnikiem inicjującym pamięć prospektywną. Plany związane z pewnym momentem czasowym częściej wymagają odniesienia do wskazówek wewnętrznych (concpetually-driven). McDaniel, Robinson-Riegler i Einstein (1998) podjęli problem mechanizmu inicjowania pamięci prospektywnej przez wskazówki zewnętrzne. Celem ich badań była odpowiedź na pytanie: „Czy istotne są fizyczne właściwości określo nego bodźca, czy też jego znaczenie?” Osoby badane poproszono o wykonanie określonej reakcji, gdy zostanie im zaprezentowane słowo wieloznaczne (np. wyraz bat mający w języku angielskim dwa znaczenia: nietoperz i kij do krykieta/baseballa). Zadanie to, mające angażować pamięć prospektywną, zo stało osadzone w zupełnie innym zadaniu. Procedura taka przypominała sy tuacje znane z codziennego życia, kiedy musimy pamiętać o przerwaniu wyko nywania jakiejś czynności, np. czytania książki, w celu zrobienia czegoś zupeł nie innego, np. wyłączenia gazu pod gotującą się zupą. Okazało się, że osoby badane częściej pamiętały o zareagowaniu na słowo wieloznaczne, jeśli użyte zostało ono w niezmienionym znaczeniu, niż wówczas, kiedy znaczenie to ulegało zmianie. Gdyby czynnikiem wyzwalającym była po prostu obecność danego słowa, a nie jego znaczenie, różnice takie nie powinny wystąpić. Robinson-Riegler (1995) w pomysłowej serii eksperymentów zweryfiko wała model dwufazowego działania PM, kiedy bodziec zewnętrzny jest
362
Rozdział 8. Pamięć
czynnikiem przypominającym o zaplanowanym działaniu. Model opiera się o odmienne mechanizmy pamięciowe: rozpoznawanie i przypominanie. W pierwszej fazie dochodzi do rozpoznania jakiegoś wydarzenia jako sygnału do podjęcia zaplanowanego działania. Tę fazę autorka wiąże z uruchomieniem intencji podjęcia zaplanowanego działania. W fazie drugiej jednostka przypomina sobie, co właściwie miała zrobić (to-be-performed task) i - jeśli oceni je jako nadal aktualne - podejmuje zaplanowane działanie. O dyskretnym charakterze tych dwóch faz i ich niezależności świadczyć mogą przypadki, w których przypominamy sobie, że mieliśmy coś zrobić, ale nie pamiętamy, co to miało być. Guynn, McDaniel i Einstein (1998) zauważyli, że kluczowa dla inicjowania pamięci prospektywnej jest siła związku pomiędzy bodźcem wyzwalającym a planowanym działaniem. Jeśli jest on zbyt słaby, może dojść do rozpoznania bodźca wyzwalającego bez przypomnienia sobie, jakie działanie należało podjąć. Jeśli jest on bardzo silny, może dojść do automatycznego uruchomienia określonej czynności. W badaniach McDaniela, Robinson-Riegler i Einsteina (1998), stosując paradygmat zadań jednoczesnych wykazano, że pamięć prospektywna angażuje zasoby uwagi. Problemem tym bliżej zajęli się Marsh i Hicks (1998). Autorzy zastosowali nie dwa, a trzy zadania jednoczesne. Pierwsze zadanie polegało na zapamiętywaniu prezentowanych słów. Zadanie prospektywne polegało na wykonaniu określonej reakcji, gdy jedno z tych słów należało do kategorii owoców. Trzecie zadanie - w zależności od zastosowanej manipulacji ekspe rymentalnej - angażowało jeden z trzech podsystemów pamięci roboczej: cen tralny system wykonawczy, pętlę fonologiczną albo szkicownik wzrokowoprzestrzenny. Okazało się, że pogorszenie wykonania zadania prospektywnego wystąpiło jedynie w warunkach zadania angażującego centralny system wyko nawczy. Zadanie to było odmianą tzw. generowania interwałów losowych (zob. paradygmat 8.5) z tym, że zamiast losowego stukania w klawisz osoby badane miały generować liczby losowe. Wynik ten wydaje się interesujący z dwóch powodów. Po pierwsze, wiąże inicjowanie pamięci prospektywnej z kontrolo wanym przetwarzaniem informacji (autorzy mówią wręcz o angażowaniu świa domości) . Po drugie, ogranicza związek pamięci roboczej z pamięcią prospek tywną do centralnego systemu wykonawczego bez zaangażowania podlegają cych mu podsystemów pamięciowych. Zdaje się zatem, że nawet stosunkowo bliskie plany prospektywne angażują przede wszystkim struktury pamięci trwałej. Wydaje się, że zainicjowanie pamięci prospektywnej, wymaga trzech czyn ników. Po pierwsze, potrzebne jest rozpoznanie przez jednostkę znaczenia bodźca wyzwalającego, a nie tylko dostrzeżenia fizycznej jego obecności. Po drugie, trzeba odpowiedniej siły aktywacji umysłowej reprezentacji bodźca wyzwalającego, aby doszło do jego włączenia w zakres informacji podlegających przetwarzaniu kontrolowanemu. Wówczas może zostać intencjonalnie zaini cjowana pamięć prospektywna, jeśli przypomnimy sobie, co mieliśmy zrobić. Aby uruchomienie działania nastąpiło automatycznie, niezbędny jest trzeci czynnik, czyli silne powiązanie bodźca wyzwalającego z określonym zapisem w pamięci prospektywnej.
8.3. System y pam ięci trw ałej
363
8.3. Systemy pamięci trwałej Pamięć trwała, w przeciwieństwie do przemijającej, charakteryzuje się nie tylko dłuższym czasem przechowywania informacji, ale również innymi funkcjami. Najogólniej mówiąc, polegają one na gromadzeniu różnorodnej wiedzy, której używanie jest kluczowym narzędziem adaptacji do złożonych wymagań śro dowiska. W związku z tym względnie duża trwałość jest zaletą tego rodzaju zapisów pamięciowych. Nie oznacza to jednak, że zapominanie informacji z systemów pamięci trwalej jest „błędem” ewolucyjnym. Ono również ma pewną funkcję przystosowawczą. Zapominaniu podlega informacja, która nie jest używana, a więc zapewne utraciła swą przydatność z perspektywy owego przy stosowania. Zamieszczone poniżej rozważania są uzupełnieniem rozdz. 4, poświęco nego strukturze i nabywaniu wiedzy. W tym miejscu zajmiemy się pominiętymi wówczas badaniami poświęconymi pamięci semantycznej oraz dwoma innymi systemami pamięciowymi: epizodycznym i autobiograficznym.
8.3.1. Pamięć semantyczna Pamięć semantyczną scharakteryzowaliśmy jako obejmującą specyficzną, sto sunkowo łatwą do werbalizacji wiedzę ogólną, oderwaną od kontekstu (rozdz. 8.1.1). Modele struktury i mechanizmy jej nabywania omówiliśmy w rozdz. 4.2.2 i 4.3.1. W tym miejscu skupimy się na badaniach poświęconych weryfikacji kluczowych założeń dwóch najważniejszych koncepcji pamięci semantycznej: teorii sieci hierarchicznej (Collins, Quillian, 1969) i teorii rozprzestrzeniającej się aktywacji (Collins, Loftus, 1975). Testowanie predykcji teorii sieci hierarchicznej prowadzono przede wszyst kim w paradygmacie weryfikacji zdań. Chodziło o weryfikację zasady ekonomii poznania, przejawiającej się w modelu Collinsa i Quilliana w postaci twierdze nia o kodowaniu informacji w sieci na możliwie najwyższym poziomie abstrakcji. Collins i Quillian (1969) prezentowali swoim badanym zdania, prosząc 0 weryfikację, czy są prawdziwe. Autorzy osobno poddali weryfikacji zdania dotyczące predykatów, a osobno przynależności kategorialnej. W pierwszym wypadku, odwołując się do przykładu sieci semantycznej przedstawionej na ryc. 4.4 (zob. rozdz. 4.2.2), zdania użyte w badaniach mogły przybrać następującą postać: 1. 2. 3. 4.
Rekin ma zęby. Rekin ma płetwy. Rekin oddycha. Rekin ma koła.
1 w drugim wariancie zadania: 1. 2. 3. 4.
Rekin jest Rekin jest Rekin jest Rekin jest
rekinem. rybą. kręgowcem. pojazdem.
364
Rozdział 8. Pamięć
Jak widać (zob. ryc. 4.4), każde pytanie w obu grupach - poza ostatnim dotyczy właściwości albo kategorii, umiejscowionych na różnych piętrach w sieci hierarchicznej. Model Collinsa i Quilliana przewidywał, że czas weryfikacji zdań będzie zależny od liczby poziomów, którą należy „pokonać”, aby dotrzeć do potrzebnej nam informacji. Czas weryfikacji zdania, które jest nieprawdziwe, miał być w związku tym zawsze najdłuższy. Zakładano, że w tym przypadku odpowiedź negatywna możliwa jest po zbadaniu wszystkich możliwości, tj. kiedy na żadnym poziomie nie można znaleźć relacji łączącej rekina z kołem czy pojazdem. Wydawało się, że przeszukiwanie powinno być w takim wypadku wyczerpujące, w przeciwieństwie do samowygaszającego się przeszukiwania w warunkach weryfikacji zdań prawdziwych. Wyniki uzyskane przez Collinsa i Quilliana okazały się zadziwiająco zgodne z oczekiwaniami: czas reakcji wzrastał liniowo wraz z liczbą hipotetycznych poziomów w hierarchii, które należało pokonać. Przyrost czasu wynosił średnio 75 ms na każdy poziom w hierarchii. Okazało się ponadto, że czas weryfikacji zdań dotyczących pre dykatów (np. rekin ma płetwy) był dłuższy w porównaniu do oceny przynależ ności kategorialnej (np. rekin jest rybą). Wynik ten można było wyjaśnić przyjmując, że połączenia reprezentujące relacje predykatywne są wolniejsze, niż połączenia dotyczące przynależności kategorialnej. Niezgodny z predykcjami okazał się natomiast czas reakcji w odniesieniu do zdań fałszywych. Zamiast najdłuższy, okazał się najkrótszy, z czym teoria sieci hierarchicznej w pierwszej wersji nie umiała sobie poradzić. Wyniki tych badań przyniosły w zasadzie potwierdzenie koncepcji Collinsa i Quilliana. Jednak krytycy, oprócz argumentów opisanych w rozdz. 4.2.2, słusznie skupili się na wynikach dotyczących czasu weryfikacji zdań negatyw nych, które okazały się sprzeczne z modelem. Był to zatem jeszcze jeden argu ment przemawiający za rewizją wczesnej wersji modelu sieci semantycznej. Problem weryfikacji zdań negatywnych okazał się niesłychanie trudny do rozwiązania. Model rozchodzącego się pobudzenia Collinsa i Loftus (1975) wymagał wprowadzenia odrębnego mechanizmu dla opisu tego zjawiska. Me chanizm obejmował co prawda weryfikację zdań zarówno prawdziwych, jak i fałszywych, jednak cechował się wysokim poziomem złożoności. Po pierwsze, opierał się na hipotetycznym procesie kumulacji dowodów „za” i „przeciw”. Proces ten wpisany został w ogólny mechanizm rozchodzącego się pobudzenia. Aktywacje rozchodzące się jednocześnie od węzłów symbolizujących pojęcia użyte w zdaniu w pewnym momencie spotykają się. Wówczas może rozpocząć się proces oceny podobieństwa węzłów oraz weryfikacji prawdziwości zdania. Wraz z rozchodzeniem się pobudzenia, aktywowane są różne relacje, a związane z nimi pobudzenia, stanowiące dowody „za” albo „przeciw” prawdziwości zdania, podlegają kumulacji. Te skumulowane pobudzenia mogą w pewnym momencie przekroczyć dolny albo górny próg wartości definiującej. Próg dolny związany jest z odrzuceniem, a próg górny z uznaniem prawdziwości weryfi kowanego zdania. Co istotne, każde z pojęć użytych w zdaniu charakteryzuje się specyficznymi dla siebie progami. Mechanizm ten wydawał się lepszym opisem zależności uzyskanych przez Collinsa i Quilliana. Okazało, że radzi sobie również ze zdaniami, które są tak ewidentnie fałszywe, jak: „Rekin ma koła” albo „Rekin jest pojazdem”. Kumu lacja dowodów w wypadku zdań absurdalnych prowadzi do niemal natychmias
8.3. Systemy pamięci trwałej
365
towego przekroczenia progu dolnego i bardzo szybkiej reakcji negatywnej. Jednak, kiedy zdania wydają się sensowne, niezbędne jest przeprowadzenie większej liczby porównań właściwości pojęć w nich użytych, co wydłuża cały proces. Co ciekawe, jeśli zdanie jest prawdziwe, to większe podobieństwo między pojęciami, które zostały w nim użyte przyspiesza jego weryfikację, a jeśli fałszywe - podobieństwo powoduje jej spowolnienie (Loftus, 1973). Najliczniejszą grupę badań poświęconych teorii Collinsa i Loftus (1975) stanowią próby weryfikacji twierdzenia o rozchodzącym się pobudzeniu w sieci. Bardzo owocny okazał się zastosowany w tym celu paradygmat poprzedzania semantycznego (semantic priming; zob. rozdz. 5). Główna idea poprzedzania, niezależnie od obszaru badań, jest podobna: bodziec eksponowany wcześniej wpływa na proces przetwarzania bodźców pojawiających się później, np. skraca bądź wydłuża czas reakcji. W poprzedzaniu semantycznym o wpływie tego typu decydują relacje semantyczne pomiędzy pierwszym w sekwencji bodźcem poprzedzającym a bodźcem docelowym. Kiedy materiałem eksponowanym w za daniu są słowa, relacje semantyczne mogą dostarczyć przynależności do wspólnej kategorii (biurko - krzesło) lub posiadania wspólnych właściwości (pies - kot); pojęcia mogą być synonimami (śmigłowiec - helikopter) albo anto nimami (mały - duży) itd. Zadanie osoby badanej polega zawsze na zareago waniu na słowo docelowe, np. podjęciu decyzji leksykalnej (lexical decision task): czy jest to słowo, czy nie-słowo. Innym razem zadanie wymagało kate goryzacji pojęć. Posner i Synder (1975) zastosowali paradygmat poprzedzania semantycz nego, eksponując jako bodziec poprzedzający i docelowy słowa identyczne lub różne. Autorzy manipulowali ponadto odsetkiem ekspozycji prób ze słowami identycznymi w stosunku do prób ze słowami różnymi (20% albo 80%) oraz odstępem między bodźcem poprzedzającym i docelowym (10 ms albo 500 ms). Autorzy stwierdzili efekt poprzedzania pozytywnego w parach identycznych słów, zarówno gdy ich odsetek wynosił 20%, jak i 80%. Efekt poprzedzania okazał się najsilniejszy, gdy odsetek ten wynosił 80%, a odstęp między bodźcem poprzedzającym a docelowym był długi (500 ms). Kiedy eksponowano pary różnych słów, wystąpił efekt poprzedzania negatywnego: czas identyfikacji słowa docelowego był dłuższy niż w warunku kontrolnym. Wyniki te były zgod ne z założeniami teorii rozprzestrzeniającej się aktywacji. Wysokie prawdopo dobieństwo pojawiania się identycznych słów, przy wystarczająco długim odstępie między nimi, umożliwiało osobom badanym skorzystanie z „dobro dziejstw” procesu rozprzestrzeniania się pobudzenia w sieci. Nieco inną wersję paradygmatu poprzedzania zastosował Neely (1977). Pary słów dobrano tak, że pierwsze było nazwą kategorii (np. ptak), a drugie albo nazwą jej egzemplarza (np. wróbel), albo egzemplarza innej kategorii (np. ściana). Badacz zastosował pomiar czasu decyzji leksykalnych jako miarę siły efektu poprzedzania. Podobnie jak u Posnera i Syndera okazało się, że jeśli odstęp pomiędzy ekspozycją bodźca poprzedzającego i docelowego wynosił co najmniej 400 ms, wystąpił efekt poprzedzania. Neely zinterpretował swoje wyniki jako efekt wpływu poprzedzania na czas dostępu leksykalnego. Efekt ten wynika zarówno z automatycznego procesu rozchodzenia się pobudzenia, dlatego ujawnia się nawet wtedy, gdy odstęp pomiędzy słowami jest bardzo mały, jak również z budowania nastawienia, będącego procesem kontrolowanym.
366
Rozdział 8. Pamięć
Badania prowadzone w paradygmacie poprzedzania doprowadziły do kilku interesujących wniosków, dotyczących rozprzestrzeniania się pobudzenia w sieci semantycznej. Po pierwsze wykazano, że rozchodzenie się pobudzenia ma cha rakter procesu automatycznego (Nelly, 1977; Posner, Snyder, 1975). Po drugie, wielkość pobudzenia węzła jest funkcją siły związku pomiędzy tym węzłem a źródłem pobudzenia, czyli wagi tego połączenia (Lorch, 1982). Po trzecie, wielkość pobudzenia rozchodzącego się określoną ścieżką od danego węzła jest funkcją sumy wag wszystkich związków, w które wchodzi dany węzeł sieci semantycznej (Reder, Anderson, 1980). Po czwarte, mechanizm rozchodzenia się pobudzenia wykorzystuje połączenia bezpośrednie (one-step; de Groot, 1983), chociaż początkowo dopuszczano nie tylko bezpośrednie związki między węzłami, ale również związki pośrednie - z udziałem innych węzłów, a zarazem wielu relacji (multiple-step). Po piąte, wydaje się, że funkcjonowanie sieci semantycznej wymaga uwzględnienia, obok mechanizmu aktywacji, również komplementarnego zjawiska hamowania. Innymi słowy, automatyczne pobu dzenie połączeń opartych na związkach semantycznych istotnych w określonej sytuacji zachodzi jednocześnie z kontrolowanym uwagowo mechanizmem hamowania połączeń dystrakcyjnych (Tipper, 1985).
8.3 .2 . Pamięć epizodyczna Pamięć epizodyczną scharakteryzowano za Tulvingiem jako zapis informacji o wydarzeniach (epizodach) umiejscowionych w określonym czasie, obejmujący również czasowo-przestrzenne relacje między tymi wydarzeniami. Nieco później wyróżniono w ramach pamięci epizodycznej odrębny podsystem poświęcony wiedzy autobiograficznej, tj. dotyczącej bezpośrednio danej jednostki. Przyj mując ten podział opiszemy kolejno oba rodzaje pamięci. Tulving (1972, 1983) podał szereg cech odróżniających pamięć epizodyczną od semantycznej. Najważniejszy wydaje się sposób organizacji informacji. W pamięci epizodycznej jest ona podporządkowana następstwu czasowemu zdarzeń. Zarówno zapamiętywanie, jak i odpamiętywanie informacji dotyczy nie tylko samych zdarzeń, ale również ich czasowego porządku. Badania Niedźwieńskiej (2003) sugerują jednak, że datowanie zdarzeń wydaje się wiązać raczej z procesami rekonstrukcji w momencie odpamiętania. Niemniej błąd w zakresie datowania, np. zmiana kolejności wydarzeń składających się na pewien epizod, może mieć poważne konsekwencje: nie bez znaczenia jest np. fakt, czy wykreślenie z projektu ustawy jakiegoś słowa odbyło się w trakcie, czy już po zakończeniu prac komisji sejmowej. Dokładne ustalenie tego momentu jest kluczowe dla prawnej i etycznej oceny tego typu „korekty”. Po drugie, pamięć epizodyczna obejmuje związki między treścią zdarzeń i ich źródłem. Dotyczy to przede wszystkim epizodów, w których nie braliśmy bezpośredniego udziału, lecz dowiadujemy się o nich z różnych źródeł. Może to być istotne również dla wiedzy autobiograficznej, kiedy wydarzenie, w którym osobiście braliśmy udział, relacjonowane jest odmiennie przez różne osoby. Mogą one nie tylko inaczej niż my oceniać dane wydarzenie, ale mogły zauważyć to, co nam umknęło, albo pamiętać to, o czym my zapomnieliśmy. Po trzecie, pamięć epizodyczna może obejmować związki przyczynowo-skutkowe, które nie
8.3. Systemy pamięci trwałej
367
wynikają wprost z ich następstwa czasowego, np. wówczas, gdy nasza wiedza wykracza poza to, co jest bezpośrednim zapisem zaistniałych wydarzeń. Ta dodatkowa wiedza może dotyczyć hipotetycznych motywów czyjegoś działania, albo odległych konsekwencji pewnego zdarzenia. Po czwarte, wiedza zawarta w pamięci epizodycznej - w przeciwieństwie do pamięci semantycznej - nie jest efektem konsensu społecznego; jest zapisem tego, w co wierzymy, że się wy darzyło. Nawiązując do przykładu prac komisji sejmowej, z kilku wersji zdarzeń w efekcie których dokonano zmian w projekcie ustawy, możemy zapamiętać tylko jedno, które wydaje nam się najbardziej prawdopodobne. W szczególnym przy padku pamięć epizodyczna może zawierać przekłamania będące następstwem konfabulacji. Po piąte, postuluje się istnienie unikalnego dla pamięci epizodycznej rodzaju świadomości, odnoszącej się do zawartej w niej wiedzy. Jest to tzw. świadomość autonoetyczna (autonoetic), czyli poczucie doświadczania czegoś na nowo. Wheeler (2000) uznaje tę formę świadomości za unikalną w skali ewolucyjnej, występującą tylko u gatunku homo sapiens. Specyficzną właściwością pamięci epizodycznej jest datowanie wydarzeń. Odbywa się ono z różną dokładnością. Najczęściej jest to dzień tygodnia (Larsen i in., 1996), rzadziej konkretna data. Niekiedy również datowanie po lega na powiązaniu wydarzeń z innymi epizodami, np. narodziny dziecka z obro ną pracy magisterskiej. Rumelhart i Norman (1975; Rumelhart, Lindsay, Norman, 1972) zapropo nowali model pamięci epizodycznej, skonstruowany z wykorzystaniem idei sieci hierarchicznej. Węzłami w sieci pamięci epizodycznej są działania oraz obiekty z nimi związane, czyli przede wszystkim sprawca i adresat. Na przykład w zda niu: „Ala głaszcze kota”, centralnym węzłem jest czynność głaskania, sprawcą Ala, a adresatem kot. W ten sposób można sobie wyobrazić strukturę wiedzy epizodycznej, oczywiście odpowiednio bardziej złożoną, czyli obejmującą większą liczbę danych dla pojedynczego zdarzenia i większą liczbę zdarzeń składających się na epizod (zob. ryc. 8.12). W badaniach empirycznych podjęto próby wyjaśnienia znacząco lepszego pamiętania wiedzy epizodycznej w porównaniu do semantycznej. Chodzi przede wszystkim o zadziwiającą łatwość kodowania epizodów, bez konieczności wie lokrotnych powtórek w celu ich utrwalenia. Craik i Tulving (1975) zapropono wali wyjaśnienie odwołujące się do teorii poziomów przetwarzania. Epizody to wydarzenia, w które w mniejszym lub większym stopniu jednostka angażuje się osobiście, dlatego ich przetwarzanie odbywa się na poziomie głębokim. Hipoteza Jackoby’ego (1978) odwoływała się do różnej trwałości zapisów pamięciowych w zależności od ich źródła: zewnętrznego lub wewnętrznego. W swoich badaniach autor wykorzystał metodę odtwarzania ukierunkowanego, w której osoba badana uczy się par słów (paired-associate recall), przy czym słowa w parach mogą być w różnym stopniu ze sobą powiązane (bliskie łub odległe). W fazie testowania badany otrzymuje jedno słowo z pary i ma za zadanie przypomnieć sobie skojarzone z nim drugie słowo. Jackoby w swoich badaniach zastosował - w jednym warunku - powyższą procedurę, prezentując osobom badanym pary blisko związanych ze sobą słów (np. but - stopa), oraz w innym warunku - odmianę tej metody, polegającą na generowaniu skojarzenia do jednego z podanych słów i zapamiętywaniu utworzonych w ten sposób par. Drugi warunek, przynajmniej teoretycznie, miał się wiązać bardziej z mecha-
368
Rozdział 8. Pamięć
sobota, południe
Ryc. 8.11. Model epizodu „John morduje Mary u Luigiego” (za: Rumelhert, Lindsay, Norman, 1972, s. 209).
nizmem kodowania epizodów niż wiedzy semantycznej. Wyniki testu odpamiętania okazały się istotnie lepsze w drugim warunku. Inne wyjaśnienie efektu lepszej pamięci epizodycznej odwołuje się do stop nia abstrakcji materiału semantycznego i epizodycznego. W wielu eksperymen tach wykazano, że lepiej zapamiętywany jest materia! konkretny niż abstrakcyjny. Badania potwierdzają przewagę obrazów nad słowami (Paivio, Csapo, 1973) oraz słów konkretnych nad abstrakcyjnymi (Paivio, Yuille, Rogers, 1969). Zdaniem niektórych teoretyków umysł człowieka generalnie łatwiej przyswaja i pamięta pojęcia konkretne niż abstrakcyjne (por. Roediger, March, Lee, 2002). Zapisy pamięci epizodycznej są zazwyczaj bardziej dystynktywne i jako takie - łatwiej pamiętane (por. Hunt, 1995). Trudno o dokładnie takie same zapisy epizodyczne, szczególnie, że ich kodowanie może odbywać się z uwzględ nieniem wielu specyficznych kryteriów (zasada specyficzności kodowania; TuMng, Thomson, 1973). Z kolei pojęcia, szczególnie bardziej abstrakcyjne (np. ze słownika terminów psychologii poznawczej), w momencie ich naby wania kodowane są najczęściej w sterylnej, pozbawionej kontekstu postaci. Dostęp do epizodów możliwy jest zatem dzięki wielu różnorodnym wskazów kom, których jest tym więcej, im głębsze było ich kodowanie. W przypadku wiedzy semantycznej wskazówek wydobycia również może być wiele, ale z natury rzeczy nie będą one tak różnorodne. Jeśli już odwołujemy się do teorii poziomów przetwarzania, przypomnijmy, że ślad pamięciowy w koncepcji Craika i Lockharta jest „kopią” operacji składających się na proces percepcji. W przypadku epizodów, proces ten jest bogaty w dużą liczbę konkretnych aktów percepcyjnych. Nabywanie wiedzy semantycznej, np. z podręcznika, nie pozwą-
8.3. Systemy pamięci trwałej
369
la na znaczące zróżnicowanie operacji wchodzących w skład procesu percepcji, bowiem w większości opiera się na czytaniu tekstu. Właśnie dlatego jej późniejsze wydobycie może być trudniejsze. Z drugiej jednak strony, umiejsco wienie epizodów w konkretnym kontekście oznacza, że jeśli nie pojawi się żadna związana z nimi wskazówka wydobycia, ich odpamiętanie może być niemożliwe. Pamięć semantyczna - przeciwnie - ze względu na oderwanie od kontekstu jej nabywania, odtwarzana jest tak samo dobrze bądź źle, bez względu na jego kontekst. Wydają się temu przeczyć klasyczne badania Goddena i Baddeleya (1975) dotyczące wpływu kontekstu na proces uczenia się listy słów (pamięć semantyczna) u płetwonurków. Autorzy wykazali, że zgodność kontekstu uczenia się i odtwarzania słów znacznie poprawiały wyniki osób badanych. Trudno jednak wykluczyć, że wpływ kontekstu polegał po prostu na wprowadzeniu dodatkowych wskazówek wydobycia. Zresztą ci sami badacze (Godden, Baddeley, 1980), kiedy zamiast testu swobodnego odtwarzania użyli testu rozpoznawania, nie stwierdzili już istotnego wpływu kontekstu. Swobodne odtwarzanie może być więc bardziej zależne od kontekstualnych wskazówek wydobycia, niezależnie od tego, czy dotyczy ono pamięci semantycznej, czy też epizodycznej.
8.3.3. Pamięć autobiograficzna
l i | I
I j f
j | j
Pamięć autobiograficzna jest odpowiedzialna za przechowanie materiału dotyczącego indywidualnej historii życia danej jednostki (Maruszewski, 2005). Specyfiką tego materiału jest odniesienie do Ja (Brewer, 1986), dlatego pamięć autobiograficzna może być uznana za część osobowości, związanej z poczuciem tożsamości i ze stałością tej tożsamości (Maruszewski, 2005). Skoro pamięć autobiograficzna obejmuje pewną część historii życia jednostki, istotne wydaje się ustalenie jej relacji do pamięci epizodycznej. Tulving (1983) początkowo nie dokonał takiego rozróżnienia, traktując oba pojęcia synonimicznie. Obecnie rozróżnienie takie wydaje się oczywiste. Baddeley (1992) uznał odniesienie do Ja jako właściwość charakteryzującą zarówno pamięć epizodyczną, jak i autobiograficzną. Dokonał jednak rozróżnienia na dwa rodzaje tego odniesienia, z których jedno byłoby właściwe wyłącznie pamięci autobiograficznej. Autor stwierdził, że zapisy epizodyczne odnoszą się do Ja doświadczającego, byłyby zatem obecne w każdym osobistym doświadczeniu jednostki. Z kolei zapisy autobiograficzne odnoszą się do Ja jako obiektu doświadczania. Wyróżnikiem pamięci autobiograficznej byłaby więc obecność samej jednostki w treści zapisów pamięciowych. Wynika z tego, że zapisy autobiograficzne byłyby podzbiorem zapisów epizodycznych. Jednak obecnie wielu badaczy włącza w zakres pamięci autobiograficznej również elementy semantyczne, tj. fakty z życia jednostki (Conway, 2000; Maruszewski, 2001, 2005; Niedźwieńska, 2004). Badania Conwaya (2000) wykazały, że odpamiętywanie zapisów autobiograficznych jest niekiedy łatwiejsze ze względu na kryteria semantyczne (ich tematyka) niż chronologię zdarzeń. Wydaje się więc, że pamięć autobiograficzna składałaby się z dwóch rodzajów zapisów: zdarzeń odnoszących się do Ja oraz faktów z życia jednostki. Tomasz Maru szewski (2001) wyłączył z kolei z zakresu pojęcia pamięci autobiograficznej
370
Rozdział 8. Pamięć
elementy doświadczenia jednostki, należące do zakresu wiedzy proceduralnej oraz doświadczenia emocjonalne podmiotu. Podstawowym wyróżnikiem zapisów autobiograficznych jest niewątpliwie rodzaj materiału pamięciowego. Maruszewski (2005) podaje pięć jego właści wości. Pierwszą jest specyficzna organizacja, oparta o reguły rządzące przebiegiem interakcji społecznej. Do reguł tych należy uporządkowanie zdarzeń w czasie, ale możliwy jest również porządek tematyczny. Wcześniej autor (Maruszewski, 2001) przyjmował także założenie o hierarchiczności organizacji materiału w pamięci autobiograficznej, podobną do tej, jaka była zakładana w odniesieniu do wiedzy semantycznej (Collins, Quilian, 1969). Posłużmy się przykładem samego autora. Zdarzenie „Janek dał kwiaty Marysi” może być częścią epizodu „randka”, a ta, razem z innymi wydarzeniami, np. „zawarciem znajomości”, „kłótniami”, „pojednaniami”, może być częścią jesz cze bardziej ogólnego epizodu „chodzenia z sobą” itd. Drugą właściwością ma teriału autobiograficznego jest udział elementów semantycznych i epizodycz nych. Dowodzono, że pamięć autobiograficzna składała się z dwóch rodzajów zapisów: faktów z życia jednostki i zdarzeń odnoszących się do jej Ja. Trzecią właściwością materiału autobiograficznego jest jego silne powiązanie z kon tekstem, który stanowi jeden z elementów zapisu autobiograficznego, zaś jest nieistotny w przypadku wiedzy semantycznej. Czwartą cechą pamięci autobio graficznej jest silne naładowanie emocjonalne zapisywanych treści, a ostatnią niski stopień preparacji informacji. Nie jest ona, w przeciwieństwie do wiedzy semantycznej, pozbawiona kontekstu i uogólniana do - bardzo niekiedy abstrakcyjnej postaci. Zapis w pamięci autobiograficznej odbywa się najczęściej w formie konkretnego zdarzenia, które odnosi się do jednostki. Osobny problem stanowią mechanizmy funkcjonowania pamięci autobio graficznej. Baddeley (1992) twierdzi, że pamięć autobiograficzna korzysta z ogólnych mechanizmów pamięciowych, tyle, że zastosowanych w odniesieniu do informacji odnoszącej się do jednostki. Nawiązując jednak do specyfiki materiału stanowiącego treści zapisów autobiograficznych, trzeba przyjąć, że również mechanizmy ich tworzenia mogą być unikalne. Tego zdania wydaje się być Maruszewski (2005), który uważa, że informacje w pamięci autobiograficz nej są kodowane odmiennie niż w innych rodzajach pamięci. Jakiekolwiek rozstrzygnięcia w tej materii wydają się obecnie przedwczesne. Linton (1975) twierdzi, że wspomnienia relatywnie świeże (nie starsze niż dwuletnie) przechowywane są ze znaczącym udziałem reprezentacji obrazo wych, podczas gdy starsze - w postaci schematów. W tym drugim przypadku, dzięki wyobrażeniom, możliwe jest dekodowanie wspomnień do postaci obrazów, ale nie są to oryginalne zapisy wydarzeń, które miały miejsce. Dlatego też, ze względu na specyficzne właściwości schematów, przywołania te mogą być odległe od prawdy, a w każdym razie od pierwotnego zapisu. Maruszewski i Ścigała (1998) uważają, że skoro pamięć autobiograficzna może zawierać zarówno dane epizodyczne, jak i semantyczne, zapis autobiograficzny zawierać może również informacje abstrakcyjne. Szczególnie interesująca wydaje się specyficzna forma kodowania informacji w postaci narracji (Rubin, 1996), czyli historii przedstawiających ciągi zdarzeń. Wydaje się jednak, że równie dobrze może to być specyficzna forma wydobywania, a nie kodowania informacji.
8.4. Podsumowanie
371
Interesujące ujęcie organizacji pamięci autobiograficznej, odwołujące się do idei hierarchiczności, zaproponował Conway (1996). Jego zdaniem pamięć autobiograficzna przyjmuje trzy formy: wiedzy na temat okresów życia, wiedzy o zdarzeniach ogólnych i wiedzy o zdarzeniach specyficznych. Pierwszy - naj ogólniejszy rodzaj wiedzy - odnosi się do osób znaczących w życiu jednostki, jej typowych celów i planów życiowych. Przykładem mogą być takie okresy życia, jak okres szkolny (rozbity na bardziej szczegółowe, np. szkoły średniej albo klasy maturalnej), staż po studiach, pierwsza praca itd. Okresy te mogą się zazębiać, np. szkoła i pierwsza praca zarobkowa. Wiedza o zdarzeniach ogól nych zawiera dwa typy zapisów (Barsalou, 1988): zdarzenia powtarzające się (np. randki w okresie studiów) oraz zdarzenia pojedyncze (np. pierwsza randka z aktualną partnerką). Z kolei wiedza specyficzna dotyczy pojedynczych epizo dów, np. czegoś szczególnego z pierwszej randki z aktualną partnerką. Uważa się, że tego rodzaju pamięć tworzy odrębny podsystem w pamięci autobio graficznej, na tyle niezależny, że pewne zaburzenia pamięciowe (np. amnezja) mogą upośledzać tego typu zapisy, bez wpływu na zapisy bardziej ogólne. Upośledzenie to jest jednak dość specyficzne, bowiem dotyczy wiedzy jawnej, podczas gdy miary pamięci utajonej wykazują wpływ tych zapisów na zacho wanie.
8.4. Podsumowanie Treść niniejszego rozdziału pokazuje, że pamięć nie jest zjawiskiem jednolitym powinno się raczej mówić o różnych rodzajach pamięci, a używając tego terminu, należy zawsze dodać, o jaki rodzaj chodzi. Czy jednak ta różnorodność form i typów pamięci ma rzetelne pokrycie w faktach empirycznych, czy też jest wyrazem słowotwórczej fantazji psychologów? Nie negując faktu, że nauka niekiedy wymyśla terminy puste lub zbędne (bo dublujące istniejące określenia), nie wolno nam zapomnieć, że o różnorodności rodzajów pamięci świadczą twarde fakty. Dotyczą one w szczególności zaburzeń i defektów pamięci. Owe zaburzenia, wynikające z urazów, chorób degeneracyjnych układu nerwowego, „zwykłego” starzenia się czy po prostu znanego nam wszystkim zapominania, mają dość wybiórczy charakter. Nie wszystkie formy pamięci zawodzą w jedna kowym czasie i według tego samego wzorca. Inna grupa faktów to dane doty czące korzystania z zasobów pamięci. Zdarza się, że informacja, niedostępna przy użyciu jednego testu lub procedury eksperymentalnej, staje się dostępna w innych warunkach lub paradygmatach badawczych, opracowanych z myślą o swoistych rodzajach pamięci. Dotyczy to w szczególności pamięci niejawnej, której zawartość ujawnia się dopiero przy zastosowaniu bardzo specyficznych procedur odpamiętywania. Jeszcze inne fakty wiążą się z neuronalnym podło żem pamięci, które jest przypuszczalnie rozproszone i swoiste dla określonych rodzajów tej zdolności. Biorąc powyższe argumenty pod uwagę, trzeba przyjąć, że człowiek dysponuje raczej pamięciami, niż pamięcią, chociaż niewątpliwie wiele z tych - skądinąd oddzielnych systemów - współpracuje podczas wyko nywania przez człowieka określonych zadań poznawczych.
R ozdział
Czynności pamięciowe
Fazy procesu pamięciowego: praw da czy złudzenie? 373 Zapamiętywanie
377
Interferencja proaktywna
387
Konsolidacja śladu pamięciowego Techniki m nem oniczne Przechowywanie Zapominanie
389
403
409
Pamięć naocznych świadków Fałszywe wspomnienia Amnezja
396 396
414
Podsumowanie 397
Zanikanie śladu kontra u tra ta d o stę pu 399 400
Rodzaje odpamiętywania
Zawodność pamięci
390
Interferencja retroaktyw na
Reminiscencja
403
Rola wskazówek naprowadzających i kon tekstu 407
377
Procesy kodowania
Odpamiętywanie
416
412
409
Zapamiętywanie to( czynność pamięciowa, polegająca na wprowadzeniu informacji do jednego z systemów pamięci. Wymaga zakodowania informacji i utrwalenia zapisu. Przechowywanie jest czynnością pamięciową, która polega na przeciw działaniu zanikowi albo utracie dostępu do zapamiętanej informacji. W trak cie przechowywania zapisy pamięciowe mogą być rekodowane, co prowadzi do zmian w zakresie ich treści albo sposobu uporządkowania. Odpamiętywaniem nazywamy czynność, polegającą na wykorzystaniu wcześ niej zapamiętanych informacji. Może się dokonać poprzez odtwarzanie (przypominanie), rozpoznawanie łub niejawny wpływ na zachowanie. Jak zauważył Oskar Wilde, „każdy skarży się na swoją pamięć, nikt na swój rozsądek”. Można by na tej podstawie sądzić, że wszyscy ludzie są rozsądni, a nikt nie ma dobrej pamięci. Byłby to jednak wniosek błędny, wywiedziony z ukrytego założenia, że ludzie dysponują trafną samooceną. Jeśli przyjąć, że samoocena nie zawsze jest trafna, a raczej służy podtrzymaniu dobrego mnie mania o sobie samym, aforyzm Wilde’a nasuwa inną interpretację: ludzie mogą swobodnie skarżyć się na pamięć, bo jej błędy nie przyczyniają się do obniżenia samooceny, a unikają skarg na brak rozsądku, bo w ten sposób nie dopuszczają do siebie myśli, jakoby im go brakowało. W tym rozdziale zajmiemy się czynnikami, które sprawiają, że ludzie skarżą się na swoją pamięć. Te czynniki to mechanizmy zapamiętywania, przechowy wania i odtwarzania informacji zapisanych w pamięci. Szczególną uwagę poświęcimy mechanizmom i przyczynom zapominania, jak też procesom two rzenia się zniekształceń pamięciowych. Przyjęta przez nas perspektywa może rzeczywiście sugerować duży stopień zawodności systemów pamięci. Psycholog koncentruje się na błędach pamięci, bo one ujawniają mechanizm jej funkcjo nowania. Jednak statystycznie rzecz biorąc, pamięć zawodzi nas dość rzadko, a biorąc pod uwagę ogrom pracy, jaką musi wykonać, jej wydajność trze ba ocenić jako wprost zdumiewającą. W pamięci każdego jej „użytkownika” utrzymują się jednak przede wszystkim epizody pomyłek i błędów, a nie re gularna, niezawodna praca systemów przechowywania informacji, obsługują cych nie tylko zadania czysto pamięciowe (np. przygotowanie się do egzaminu), ale również złożone czynności poznawcze, takie jak myślenie, rozwiązywanie problemów, rozumowanie, podejmowanie decyzji, wydawanie sądów i prze twarzanie języka.
9.1. Fazy procesu pamięciowego: prawda czy złudzenie? Podstawowy podział czynności pamięciowych odwołuje się do trzech, łatwych do intuicyjnego uchwycenia, faz procesu pamięciowego: zapamiętywania, przechowywania i odpamiętywania informacji. Jest to jednak podział niewy starczający, i to z kilku powodów.
374
Rozdział 9. Czynności pamięciowe
Po pierwsze, każda z tych faz wiąże się z szeregiem bardziej elementarnych procesów przetwarzania informacji, które stanowią - przynajmniej hipotetycznie - poznawcze podłoże pamięci człowieka. Dlatego też każdą z nich można opisać w kategoriach bardziej elementarnych czynności pamięciowych, które dodatko wo różnią się w zależności od tego czy dotyczą słów lub obrazów, czy też wiedzy ogólnej lub epizodów. Ta różnorodność wiąże się zapewne ze swoistymi - być może jakościowo różnymi - mechanizmami poznawczymi. Podstawą za pamiętywania są mechanizmy kodowania informacji, uwarunkowane rodzajem i treścią materiału. Obok właściwości materiału, również sposób jego poznawczej obróbki, np. zastosowanie technik mnemonicznych, może modyfikować cha rakter kodowania. Na przykład, materiał werbalny dzięki wizualizacji może zostać „przełożony” na kod wzrokowy, a abstrakcyjny ciąg symboli - na opowiadanie o zupełnie konkretnej fabule. Wielość sposobów poznawczej ob róbki informacji, która może towarzyszyć procesowi kodowania, sugeruje, że i mechanizmy tego procesu mogą być zróżnicowane. Nawet jeśli roboczo przyjąć założenie o uniwersalnym kodzie głębokich reprezentacji wiedzy, trzeba uznać, że mechanizmy ich tworzenia są odmienne, skoro prowadzą do unifikacji zupełnie różnych kodów sensorycznych. Właściwie tylko mechanizm kodowania oparty na metaforze engramu - śladu, który jest pamięciowym „odciskiem” bodźca - mógłby być uniwersalny, jednak dziś wiemy z całą pewnością, że metafora ta jest nietrafna. Podobnie odpamiętywanie przebiega odmiennie w zależności choćby od zastosowanej metody wydobycia informacji z pamięci. Po drugie, każda z trzech faz procesu pamięciowego nie wydaje się mono lityczną i niepodzielną „cegiełką” poznawczą. Już Tulving (1976a) postulował, że w trakcie przechowywania informacji może dojść do jej rekodowania, czyli ponownego kodowania przechowywanych w pamięci danych, po wcześniejszym ich przywołaniu i modyfikacji. Zjawisko rekodowania wydaje się zatem składać z trzech bardziej elementarnych faz: przywołania, modyfikacji i ponownego kodowania zapisu pamięciowego. Z kolei Loftus (Loftus, Loftus, 1976) uznała, że proces odpamiętywania składa się z dwóch faz: przeszukiwania pamięci i rozpoznawania, czy to, co znaleźliśmy jest tym, czego szukaliśmy. Wydaje się zatem, że lista czynności pamięciowych jest najprawdopodobniej znacznie dłuższa, niż się to intuicyjnie wydaje. Tulving (1976a) wyróżnił ich łącznie siedem, co jest, być może, równie odległe od prawdy, jak model trzech faz. Rozmaite mechanizmy obróbki materiału w procesie kodowania, a potem w trak cie odpamiętywania, mogą tę liczbę dodatkowo modyfikować. Na przykład, użycie techniki mnemonicznej, dzięki której materiał werbalny jest transfor mowany na drodze wizualizacji w materiał obrazowy (wyobrażeniowy) - mimo że nie jest procesem stricte pamięciowym - wydaje się istotnie komplikować fazę zapamiętywania. Pojawiają się w niej bowiem dwa procesy kodowania: wer balny i wzrokowy, które mogą zachodzić jednocześnie. Co wiecej, ślad pa mięciowy jest wynikiem obróbki stymulacji zewnętrznej, która, być może, zachodzi w stałej sekwencji wspomnianych trzech albo innej liczby faz. Ale kodowanie dotyczy nie tylko stymulacji zewnętrznej. Wspominaliśmy o za pamiętywaniu poznawczych „produktów” aktywności umysłowej, np. wniosko wania, które mogą stanowić dla jednostki nową wiedzę, chociaż nie pochodzącą z zewnątrz.
9.1. Fazy procesu pam ięciowego: p raw da czy złudzenie?
375
Po trzecie, zdarzają się też przypadki, w których model trzech faz pa mięciowych okazuje się nieadekwatny. Najczęściej spotykane odstępstwo od tego modelu dotyczy braku fazy odpamiętania, co zdarza się nawet wtedy, gdy doskonale wiemy, że pewną informację powinniśmy pamiętać. Wiąże się to z mechanizmem zapominania, które może wynikać nie tylko z zacierania się śladów pamięciowych, ale również z utraty dostępu do informacji (zob. rozdz. 9.2.3). Inny przykład to konfabulacja, która może być rozumiana jako „odpamiętanie” informacji wcześniej nie zapamiętanej. Konfabulacja obiektyw nie jest odpamiętaniem, chociaż rzeczywiście może być zapisanym w pamięci produktem wnioskowania. O konfabulacji należałoby więc mówić nie - jak tradycyjnie - w kontekście zaburzeń pamięci, ale raczej zaburzeń myślenia. Inne zjawisko - deja vuy z perspektywy psychologii pamięci jest rozpoznaniem, czyli formą odpamiętania, ale bez uprzedniego kodowania danych i przechowywania śladu pamięciowego. Zjawisko to polega na rozpoznaniu sytuacji, w której się znaleźliśmy, jako doskonale znanej, chociaż obiektywnie jest ona nowa (np. miejsce, w którym jesteśmy po raz pierwszy). Rozpoznaniu temu dodatkowo towarzyszy poczucie, że wiemy, co za chwilę nastąpi. Wyjaśnieniem tego efektu może być typowość nowej sytuacji, która pozwala na konstruow anie „wspomnienia” z udziałem skryptów poznawczych. Reasumując, sprowadzenie procesów pamięciowych do trzech - czy innej liczby - faz wydaje się zabiegiem o charakterze bardziej porządkującym, niż wyjaśniającym przebieg procesu pamięciowego. Uporządkowanie to jest zresztą powierzchowne, bowiem zapamiętywanie, przechowywanie i odpamiętywanie są swego rodzaju etykietami, pod którymi kryje się wiele bardziej elementarnych procesów pamięciowych. Podział ten wydaje się więc niewystarczający, a nawet może wprowadzać w błąd, jeśli uwzględnić zjawiska, w których pojawia się tylko jedna faza procesu pamięciowego. Psychologia nie doczekała się ogólnej teorii procesów pamięciowych, która w zadowalający sposób wyjaśniałaby opisane w literaturze różne efekty szczegółowe. W celach porządkujących zachowano jednak w dalszych częściach rozdziału podział na trzy fazy procesu pamię ciowego. O zapamiętywaniu, przechowywaniu i odpamiętywaniu była mowa w rozdziałach dotyczących pamięci (zob. rozdz. 8) i wiedzy (zob. rozdz. 4). Każda z rozważanych tam propozycji teoretycznych inaczej ujmuje mechanizmy owych faz, na co na bieżąco zwracaliśmy uwagę. Poniżej ponownie zajmiemy się fazami procesów pamięciowych, ale mówić będziemy o czynnikach mających pozytywny czy negatywny wpływ na ich przebieg. Innymi słowy, niezależnie od wyjaśnień dotyczących mechanizmów, np. zapamiętywania, pamięci deklara tywnej czy proceduralnej, skupimy się na czynnikach wspomagających albo przeszkadzających w przebiegu podstawowych czynności pamięciowych. O procesach zapamiętywania, podobnie jak przechowywania, wnioskujemy pośrednio opierając się na wynikach odpamiętywania. Różnica między nimi polega na tym, że o zapamiętywaniu wnioskujemy na podstawie manipulacji dokonywanych w obrębie materiału, podczas gdy o przechowywaniu - mani pulując w obrębie przechowywanych śladów pamięciowych. Należy zaznaczyć, że pomimo klarownej różnicy między obydwoma sposobami manipulacji, trudno jest precyzyjnie oddzielić wynikające z nich wpływy. Odwołajmy się do kia-
376
Rozdział 9. Czynności pamięciowe
sycznego badania Bartletta (1932), skonstruowanego na zasadzie znanej zabawy grupowej w „głuchy telefon”. Osoba badana zapoznawała się z pewną opowieścią, będącą baśnią indiańską pt. „Wojna duchów”, którą miała powtórzyć kolejnej osobie. Ta z kolei miała powtórzyć ją następnej i tak kilka razy. Baśń, co sugeruje jej tytuł, zawierała w sobie elementy magiczne, które mogły być niezrozumiałe dla reprezentantów kultury zachodniej, biorących udział w badaniach. Bohater opowieści, młody Indianin, brał udział w tytułowej wojnie duchów, w której został zraniony. Sam jednak tego nie czuł, mimo, że obecni przy nim wojownicy tak twierdzili. Kiedy wrócił do wioski, opowiedział wszystkim współplemieńcom o swojej przygodzie. Podkreślił, iż wołano, że zo stał trafiony, choć tego nie czuł. Kiedy młodzieniec skończył opowieść i wzeszło słońce, padł martwy, a coś czarnego wyszło mu z ust. Bartlett opisuje wiele sposobów, według których przekształcono wyjściową opowieść, mimo że osoby badane miały ją wiernie powtórzyć. Było jednak kilka prawidłowości dotyczących kolejnych przekształceń. Po pierwsze, kolejne wersje opowieści pozbawiano elementów niezrozumiałych w kulturze zachod niej. Umykała w ten sposób istota baśni, dotycząca rany poniesionej bitwie przez głównego bohatera, której nie doznało wcale jego ciało. W bitwie ranny został jego duch, dlatego na końcu opowieści opuszcza on ciało, które umiera. Kolejne wersje opowiadań podlegały modyfikacjom, polegającym na dopasowaniu ich do schematów właściwych kulturze zachodniej. Po drugie, opowiadania były coraz krótsze, co w połączeniu ze zmianą treści, prowadziło do wypracowania takiej wersji historii, którą przekazywano już bardzo wiernie. Po trzecie, skracanie opowieści, polegające na usuwaniu kolejnych wątków, odbywało się w okreś lonej kolejności. Najpierw eliminowano z opowieści elementy niezrozumiałe, np. informację, że młodzieniec został w przedziwny sposób ranny, a niekoniecz nie te, które były poboczne dla głównego wątku. To interesujące badanie, niewątpliwie ekologicznie trafne, nie jest wcale proste w interpretacji w kategoriach mechanizmów procesów pamięciowych. Wydaje się, że trudno było zapamiętać wszystkie szczegóły, choćby ze względu na długość pierwotnej wersji opowieści. Poza tym - jak słusznie zauważa sam autor - treść opowiadania, nałożona na wcześniej ukształtowane schematy po znawcze, mogła ulec znacznej modyfikacji. Schematy przypuszczalnie wpływały na fazę kodowania informacji. Przekazując treść opowiadania, badani dokonywali szeregu modyfikacji, polegających głównie na selektywnym przywoływaniu infor macji i niepotrzebnym włączaniu do opowieści informacji nowych. Czyniły one opowieść bardziej zrozumiałą dla kolejnych badanych, ale zupełnie zmieniały jej sens. Tytułowa wojna duchów przekształcała się np. w regularną bitwę, w której młodzieniec ginął w wyniku przecięcia nadgarstków, z nich zaś wypłynęła ciemna, prawie czarna krew. Czynniki te mogły wpływać na fazę odtwarzania, a nie na przechowywanie materiału. Ponieważ nie wiemy, czym by się różniły kolejne od tworzenia tej samej osoby, nie wiemy, co się działo z zapisem pamięciowym baśni wraz z upływem czasu albo w związku kolejnymi próbami jej odtworzenia. Rów nież wyniki późniejszych badań eksperymentalnych bywają trudne do precyzyjnej interpretacji w kategoriach mechanizmów konkretnych faz pamięciowych. Konkludując, wydaje się, że fazowe ujęcie procesu pamięciowego jest traf ne, jeśli nie będziemy precyzować ani liczby, ani kolejności, ani uogólnionych
9.2. Zapamiętywanie
377
charakterystyk wyróżnianych faz. Jedyne, co pozostaje z właściwości tego uję cia, to jego fazowość, więc - co za tym idzie - ma ono charakter bardziej po rządkujący niż wyjaśniający.
9.2. Zapamiętywanie 9.2.1. Procesy kodowania Kodowanie jest definiowane jako automatyczny proces tworzenia reprezentacji informacji w pamięci. Dwa obszernie omówione ujęcia teoretyczne procesu kodowania informacji w systemie poznawczym człowieka to: teoria poziomów przetwarzania Craika i Lockharta (1972; zob. rozdz. 8.1.3) i teoria podwójnego kodowania Paivio (1971; zob. rozdz. 2.3.2). W tym miejscu skupimy się na wybranych badaniach poświęconych kodowaniu informacji w pamięci długo trwałej. Podstawowym, a zarazem praktycznym celem tych badań, było po szukiwanie czynników mających wpływ na przebieg pierwszej fazy procesu pamięciowego. Są to przecież czynniki, których planowe wykorzystanie mo że usprawnić zapamiętywanie, a co najmniej osłabić wpływ czynników za kłócających. Hermann Ebbinghaus jest uznawany za pioniera badań eksperymentalnych nad pamięcią, głównie zapamiętywaniem i odpamiętywaniem. Badacz ten wprowadził paradygmat, w którym pamięć bada się z użyciem bezsensownego materiału, dzięki czemu - jak zakładał - zyskuje się dostęp do „naturalnych” procesów pamięciowych. Zabieg ten, z pozoru paradoksalny, pozwala na wyeliminowanie wpływu uprzedniej wiedzy na zapamiętywanie. Jego paradoksalność polega na wyłączeniu czynnika, który jest kluczowy dla nabywania nowej, sensownej dla podmiotu wiedzy. Jednak uprzednia wiedza jest źródłem czynników trudnych do kontrolowania, które Ebbinghaus, zainteresowany ogólnymi regułami działania pamięci, chciał wyeliminować (por. Tulving, 1985a). W badaniach, opublikowanych w klasycznej pracy z 1885 r., Ebbinghaus (1885/1913) wykorzystywał listy bezsensownych sylab, składających się z dwóch spółgłosek i jednej samogłoski, np. zap, lif. Zdaniem badacza, tego typu materiał jest homogeniczny i przy wystarczająco dużym tempie prezentacji - niepodatny na stosowanie technik mnemonicznych. Każdą z wygenerowanych przez siebie 2300 sylab Ebbinghaus zapisał na osobnej kartce, które - losowo dobrane tworzyły listy o długości od 7 do 36 elementów. Prezentacja odbywała się w takt metronomu w tempie 400 ms na sylabę. Przerwa między ekspozycją materiału z listy i próbą jej odtworzenia wynosiła 15 s. W badaniach brała udział tylko jedna osoba, którą był sam Ebbinghaus. Pierwsze ustanowione w ten sposób prawo dotyczyło związku liczby powtórzeń niezbędnych do zapamiętania listy w funkcji liczby składających się na nią sylab. Jako kryterium zapamiętania przyjęto jedno bezbłędne powtó rzenie całej listy. Wyniki Ebbinghausa wskazywały na krzywoliniowy związek długości listy z liczbą powtórek, które należy dokonać w celu jej zapamiętania (zob. ryc. 9.1).
378
Rozdział 9. Czynności pamięciowe
liczba elementów na liście
Ryc. 9.1. Zależność między długością listy elementów, a liczbą powtórzeń niezbędnych do jej bez błędnego odtworzenia (za: Tulving, 1985a, s. 488, na podstawie danych Ebbinghausa, 1885/1964).
Liczba powtórzeń materiału jest więc pierwszym czynnikiem, który ma istotny wpływ na efektywność kodowania w LTM. Przypomnijmy jednak, iż Craik i Watkins (1973) wykazali, że liczba powtórzeń - w tym przypadku słów nie wpływa na poziom ich późniejszego odtworzenia, jeśli powtórkom nie towarzyszy pogłębienie przetwarzania (zob. rozdz. 8.1.3). Klasyczne wyniki Ebbinghausa skłaniają do refleksji nad poprawnością wniosków Craika i Watkinsa, bowiem trudno sobie wyobrazić, jaki rodzaj pogłębienia może towa rzyszyć powtarzaniu bezsensownych sylab. Założenie teorii Craika i Lockharta mówi, że pogłębienie przetwarzania w przypadku materiału werbalnego jest możliwe dzięki analizie semantycznej. Ebbinghaus twierdził, że nie stosował żadnych technik mnemonicznych, dzięki którym mógłby nadać jakieś znaczenie sylabom, bowiem - jak twierdził - nie miał żadnego doświadczenia w ich stoso waniu. Wydaje się zatem, że powtarzanie samo w sobie może być czynnikiem pozytywnie wpływającym na zapamiętywanie. Pojawia się jednak pytanie, jaki jest poznawczy mechanizm tego efektu. Tulving (1985a) twierdzi, że Ebbinghaus, poddając się długim seriom badań, nabywał nie tylko wiedzę semantyczną dotyczącą symbolicznej reprezentacji listy sylab, czyli to, co było właściwym przedmiotem jego badań. Nabywał również wiedzę proceduralną, dotyczącą szybkiego „deklamowania” zestawu sylab. Zatem wyniki jego eksperymentów były rezultatem interakcji obu rodzajów wiedzy. Argumentem, jaki przytoczył Tulving, były wyniki samego Ebbinghausa, dotyczące tzw. oszczędności przy ponownym uczeniu się. Ebinghaus chciał sprawdzić, jak szybko uzyska poziom bezbłędnego odtworzenia listy 12, 24 albo 36 sylab po 24 godzinach od jej pierwszego zapamiętania. Badacz zastosował manipulację polegającą na zmiennej liczbie powtórzeń listy w pierwszym dniu: od
9.2. Zapamiętywanie
379
8 do 64. W trakcie ponownego uczenia się na drugi dzień zastosował dwa rodzaje list: identyczne i zmienione w stosunku do użytych w pierwszym dniu. Zmiana polegała na usunięciu jednej sylaby z oryginalnej listy. Rycina 9.2 przedstawia uzyskane rezultaty w kategoriach czasu zaoszczędzonego w trakcie ponownego
3
"C O O ) 13 -O 5 —
(fi
3
C N O 3 CD
E
>. c
$o c
o
a
> 1 N 3
CÖ O 'O 'to o “acO > o to O CO N
N N
liczba powtórzeń w pierwszym dniu
Ryc. 9.2. Oszczędność czasu przy ponownym uczeniu się w drugim dniu jak i funkcja liczby powtórzeń w pierwszym dniu (za: Tulving, 1985a, s. 488, na podstawie danych Ebbinghausa, 1885/1964).
uczenia się. W przypadku ponownego uczenia się identycznej listy, zaoszczę dzony czas okazał się liniową funkcją liczby jej powtórzeń w pierwszym dniu. W wypadku zmienionych list, efekt oszczędności był slaby i począwszy od 32 powtórzeń oryginalnej listy nie ulegał dalszym zmianom. Ponadto Ebbinghaus zaobserwował różnicę w liczbie powtórzeń zaoszczędzonych w procedurze po nownego uczenia się w zależności od długości listy. Było to odpowiednio 33% w przypadku listy złożonej z 12 sylab, 50% dla 24 sylab i 58% dla 36 sylab. Zdaniem Tulvinga (1985a) wyniki Ebbinghausa świadczą o udziale w odtwarzaniu materiału nie tylko wiedzy semantycznej, ale i proceduralnej, ponieważ rozbieżność semantyczna list identycznych i zmienionych była niewielka, a różnica w zaoszczędzonym czasie ponownego uczenia się - bardzo duża. Znacznie słabszy efekt oszczędności przy ponownym uczeniu się zmie-
380
Rozdział 9. Czynności pamięciowe
nionej listy jest, według Tulvinga, skutkiem wykorzystania tylko wiedzy seman tycznej, nabytej w takcie zapamiętywania oryginalnych list w pierwszym dniu badania. To, że efekt oszczędności w ogóle wystąpił, było natomiast skutkiem wykorzystania wiedzy proceduralnej. Obok liczby powtórzeń, również ich rozłożenie w czasie wykazało istotny wpływ na zapamiętywanie. Problemem tym jako pierwszy zajął się Jost (1897), który sformułował słynne prawo, mówiące, że jeżeli dwa skojarzenia mają jednakową siłę, ale jedno z nich jest starsze od drugiego, to skojarzenie chro nologicznie wcześniejsze będzie bardziej podatne na dobroczynny wpływ ponownego uczenia się. Jost prezentował osobom badanym (N=2) ciągi bezsen sownych sylab w dwóch warunkach. Pierwszy warunek polegał na zapamięty waniu listy w procedurze skomasowanego uczenia się, co oznaczało jej 30-krotne powtórzenie w ciągu jednej sesji. Po upływie jednego dnia zastosowano procedurę ponownego uczenia się, aż do jednokrotnego bezbłędnego powtó rzenia całej listy. W drugim warunku - rozłożenia prób w czasie - zapa miętywanie listy rozbito na 10 powtórzeń w ciągu trzech kolejnych dni. W czwar tym dniu zastosowano, podobnie jak w warunku pierwszym, procedurę ponownego uczenia się. Średnia liczba powtórzeń koniecznych do uzyskania jednego bezbłędnego odtworzenia materiału w warunku skomasowanego uczenia się wyniosła 9, a w warunku rozłożenia powtórek w czasie - 7,6. Zjawisko to badał również Hovland (1938), manipulując nie tylko długością przerwy między kolejnymi powtórzeniami całej listy, ale również przerwą między ekspozycją poszczególnych jej elementów. Osoby badane zapamiętywały ciąg 12 bezsensownych sylab, eksponowanych w tempie 2 lub 4 s na każdy element ciągu. W metodzie skomasowanego uczenia się przerwa między ciągami sylab wynosiła 6 s, a w metodzie rozłożenia w czasie - 2 min i 6 s. Wyniki jednoznacznie wska zywały na wpływ tempa prezentacji elementów listy na efektywność zapamięty wania, ale nie wykazały systematycznego wpływu przerwy między kolejnymi powtórzeniami całej listy. Innymi słowy, dłuższa przerwa między ekspozycją ele mentów listy wpływała pozytywnie na zapamiętanie, podczas gdy długość przerwy między kolejnymi próbami uczenia się całej listy nie miała związku z efektywnością zapamiętania. Z kolei Travis (1937) manipulował przerwą czasową między pierwszym i ponownym uczeniem się materiału w przedziale od 30 s do 48 godz. Badacz wykazał, że do bezbłędnego odpamiętania listy wystarczą średnio 4 powtórzenia w trakcie ponownego uczenia się, jeśli odstęp w czasie wynosi od 10 min do 24 godz. (zob. ryc. 9.3). Wydaje się, że wyniki Travisa można wyjaśnić, odwołując się do mechanizmu konsolidacji, czyli utrwalenia śladu pierwszego uczenia się w pamięci długotrwałej. Konsolidacja zapewnia zwiększoną odporność materiału na upływ czasu i wpływ czynników dystrakcyjnych (zob. rozdz. 9.1.3). W badaniach Hovlanda przerwa między pierwszym i ponownym uczeniem się była, jak się wydaje, zbyt krótka (maksymalnie 2 min i 6 s), aby proces konsolida cji mógł istotnie wzmocnić pozytywny efekt rozłożenia powtórek w czasie. Uzyskany przez Hovlanda istotny wpływ tempa ekspozycji materiału na zapa miętanie można wyjaśnić większą efektywnością kodowania informacji w takich warunkach, co pozwala na ewentualne zastosowanie technik mnemonicznych (zob. rozdz. 9.1.4). Bardzo interesujące badania nad zapamiętywaniem przeprowadzili Bahrick, Bahrick i Bahrick (1993). Wszyscy autorzy uczyli się języka obcego przez
9.2. Zapamiętywanie
381
czas
Ryc. 9.3. Związek odstępu czasu między kolejnymi powtórzeniami materiału a liczbą powtórzeń, konieczną do uzyskania kryterium jednego bezbłędnego powtórzenia całej listy (za: Travis, 1937). 80 i
70-
5 £
f 60c
0 £
1o $ *(ooO
50
40-
30-
56 dni przerwy
n 0
i
i 1
2
i 3
i 4
czas, który upłynął od ostatniej sesji uczenia się
Ryc. 9.4. Poprawność odtworzenia słówek języka obcego jako funkcja przerw między ponownym uczeniem się (14, 28 i 56 dni) i upływu czasu (za: Bahrick i in., 1993).
382
Rozdział 9. Czynności pam ięciow e
4 lata, po czym testowali pamięć słówek przez następnych 5 lat. Manipulacja, którą zastosowali, dotyczyła właśnie przerwy między kolejnymi powtórzeniami materiału w ciągu 4 lat nauki. Wynosiła ona 2, 4 albo 8 tygodni. Wyniki ich badań wskazywały na dwie prawidłowości (zob. ryc. 9.4). Po pierwsze, okazało się, że im dłuższa przerwa pomiędzy kolejnymi powtórzeniami materiału, tym lepsze jego pamiętanie, niezależnie od czasu jaki upłynął od zakończenia nauki. Po drugie, istotny spadek liczby odtworzonych słówek był słabszy w przypad ku najdłuższej przerwy, a największy - najkrótszej przerwy między kolejnymi powtórzeniami. Innymi słowy, dłuższe przerwy między powtórzeniami wpływały pozytywnie na zapamiętywanie zarówno w zakresie jego efektywności, jak i odporności na upływ czasu. Kolejnym czynnikiem o kluczowym wpływie na zapamiętywanie jest orga nizacja materiału. Bousfield (1953) zaprezentował dwóm grupom osób bada nych listy złożone z 60 słów. W pierwszej grupie były to słowa z kategorii ogólnej, czyli nie dające się pogrupować w mniejsze kategorie. W grupie drugiej znajdowały się słowa należące do czterech, łatwych do wyróżnienia kategorii: zwierząt, imion, zawodów i warzyw. W obu grupach słowa prezentowano w po rządku losowym. Następnie zadaniem osób badanych było swobodne odtwo rzenie jak największej liczby słów. Okazało się, że w drugiej grupie osoby badane odtwarzały słowa nie w kolejności ich ekspozycji, lecz według kategorii materiału. Co więcej, poziom odtworzenia był wówczas istotnie wyższy, niż w wypadku materiału niepowiązanego kategorialnie. Efekt ten nazwano grupowaniem kategorialnym (categorical clustering). Jego mechanizm przy puszczalnie polega na kojarzeniu danego słowa ze strukturami wyższego rzędu, reprezentującymi nazwę kategorii. W odpamiętywaniu, zdaniem autora, wystarczy przypomnienie sobie jednego pojęcia, aby aktywować całą kategorię, do której ono należy, a to ułatwia odtwarzanie kolejnych egzemplarzy. Z kolei Deese (1959a) wykrył, że związki skojarzeniowe pomiędzy słowami z listy są predyktorem liczby odpamiętanych słów oraz liczby intruzji, czyli wtrąceń słów, które wiążą się z daną kategorią, ale nie były prezentowane osobom badanym. Intruzje, pojawiające się częściej w materiale dającym się łatwo kategoryzować, niż materiale trudnym do kategoryzacji, wskazują na trafność koncepcji gru powania kategorialnego według Bousfielda. Skoro aktywacja danej kategorii facylituje odtwarzanie jej egzemplarzy, w odtworzeniu mogą się pojawić pojęcia do niej należące, mimo że nie były wcześniej prezentowane. Inne właściwości organizacji materiału wykryła Frost (1972). Badaczka pokazywała osobom badanym zestaw rysunków, informując je, że będą badani albo testem rozpoznawania, albo testem swobodnego odtwarzania. W prze prowadzonym teście rozpoznawania, w części rysunków zastosowano manipu lację perspektywą: rysunki przedstawiały te same obiekty, które pokazywano w fazie zapamiętywania, ale ich wygląd został zmieniony. Frost założyła, że gdyby kodowanie materiału wizualnego miało charakter wyłącznie werbalny, nie powinno mieć znaczenia, czy rysunek pokazywany w teście rozpoznawania jest identyczny z pierwowzorem. Okazało się jednak, że czas reakcji w przypadku rysunków przedstawiających obiekty w innej perspektywie był dłuższy (średnio o 180 ms) niż w przypadku rysunków identycznych. Wskazywało to na udział w procesie kodowania zarówno semantycznych, jak i wizualnych cech materiału obrazkowego, ale tylko wówczas, gdy osoby badane były przygotowane na test
9.2. Zapam iętyw anie
383
swobodnego odtwarzania. Kiedy uprzedzono, że czeka je test rozpoznawania, czas reakcji na obiekty pokazywane w oryginalnej i zmienionej perspektywie nie różnił się istotnie. Wskazywałoby to na selektywne, wyłącznie werbalne ko dowanie prezentowanych rysunków, zgodne z hipotezą „skąpca poznawczego” Fiske i Taylor (1991; zob. rozdz. 1). Zapamiętanie nazw obiektów stanowi minimum, które wystarcza do efektywnego rozpoznania, podczas gdy mogłoby okazać się nieefektywne w swobodnym odpamiętaniu. Zatem ucząc się pod kątem testu swobodnego odtwarzania (np. egzaminu ustnego) zapamiętujemy materiał wieloaspektowo, podczas gdy do rozpoznawania (np. testu wyboru) kodujemy minimalną ilość informacji, która pozwoli nam na różnicowanie treści znanych od nieznanych. W innym eksperymencie Frost zaprezentowała 16 rysunków, należących do czterech kategorii semantycznych: ubrań, zwierząt, pojazdów i mebli. Po nadto każdy z czterech rysunków w danej kategorii został poddany specyficznej manipulacji, polegającej na zmianie sposobu ich wizualnej prezentacji. Rysun ki były eksponowane pionowo bądź poziomo oraz pochylone w lewą lub w pra wą stronę. Wyniki Frost wskazywały, że odpamiętywanie może się odbywać z uwzględnieniem zarówno klucza semantycznego, jak i wizualnego. Wynika z tego, że oba typy wskazówek muszą być wykorzystane w trakcie kodowania materiału. Organizacja materiału, mająca niewątpliwy wpływ na zapamiętywanie, nie jest jednak cechą samego materiału, lecz wynika z uprzedniej wiedzy jednostki. Gdyby nie ta wiedza, niemożliwe byłoby włączenie kategorii semantycznych w trakcie zapamiętywania. Materiał, który by się składał z egzemplarzy kategorii nie wychwyconych przez osoby badane, byłby tak samo trudny do odpamiętania, jak materiał obiektywnie nie poddający się grupowaniu. Dowiedli tego Bower, Clark, Lesgold i Winzenz (1969), prezentując osobom badanym listę z nazwami minerałów. Dla przeciętnie wykształconej osoby badanej lista ta zawierała pojęcia należące do jednej kategorii, więc nie można było ich pogrupować. Badacze podzieli osoby badane na dwie grupy. Jedna otrzymała listę w postaci hierar chicznego zbioru, który dostarczał wiedzy na temat sposobu grupowania minerałów. Druga grupa otrzymała listę tych samych minerałów, ale bez żadnej podpowiedzi. Po czterech ekspozycjach materiału, pierwsza grupa uzyskała wskaź nik poprawności na poziomie 100% (95% już po drugiej ekspozycji), podczas gdy grupa druga - na poziomie 63%. Co ciekawe, ten ostatni wynik był niższy od uzyskanego w pierwszej grupie już po jednokrotnej ekspozycji listy. Wynild te zreplikowano m.in. w odniesieniu do tytułów piosenek, które były eksponowane jako sensownie pogrupowane albo w porządku losowym (Halpern, 1986). Kolejnym czynnikiem wpływającym na zapamiętywanie jest elaboracja (elaboration), czyli opracowanie materiału, polegające na dodaniu do informacji czegoś, czego w niej oryginalnie nie było. Opracowaniem może być już samo powiązanie materiału z posiadaną wiedzą, bowiem tym, czego na początku w nim nie było, są nowe dla jednostki związki semantyczne. Elaboracja może wyzwolić poszukiwanie dodatkowych informacji, które prowadzą do doprecyzowania i uszczegółowienia materiału. Specyficzną odmianą elaboracji jest poszukiwanie wyjaśnień, jeśli są potrzebne, aby lepiej zrozumieć materiał (np. wyników badań empirycznych dotyczących freudowskiego wyparcia, które pozwoli odnieść jego mechanizmy do funkcjonowania pamięci). Słowem, elaboracja służy nadaniu
384
Rozdział 9. Czynności pamięciowe
głębszego znaczenia informacji podlegającej kodowaniu. W języku teorii po ziomów przetwarzania elaboracja prowadzi do pogłębienia przetwarzania. Stein i Stanford (1979) badali wpływ elaboracji na zapamiętywanie. Bada cze prezentowali osobom badanym trzy rodzaje zdań. Pierwszy rodzaj stanowiły proste zdania oznajmujące, np. „Gruby mężczyzna przeczytał napis”. Zdania te zostały tak skonstruowane, aby trudno je było opracować. W zdaniach drugiego rodzaju zawarto dodatkowe informacje, były one jednak nieistotne dla pogłębionego zrozumienia treści, np. „Gruby człowiek przeczytał napis, który miał 60 cm wysokości”. Informacja o wysokości napisu nie prowadzi do pogłę bienia semantycznej analizy przekazu i nie wzbogaca naszej wiedzy o sytuacji mężczyzny. Trzeci rodzaj zdań również wzbogacono o dodatkowe, ale tym razem istotne informacje, np. „Gruby mężczyzna przeczytał napis ostrzegający przed cienkim lodem”. Niewątpliwie semantycznie najbogatsze jest zdanie trzecie, bowiem powoduje nie tylko wyjaśnienie, o jaki napis chodzi, ale stanowi pewne uzasadnienie dla użytego w zdaniu przymiotnika „gruby”. W ten sposób można było eksperymentalnie manipulować poziomem „elaboracji”. Następnie osoby badane otrzymywały serię prostych zdań, z brakującym elementem w miejscu przymiotnika, który należało sobie przypomnieć (np. „gruby”). Osoby, którym prezentowano zdania proste, były w stanie poprawnie odtworzyć 42% przy miotników, podczas gdy osoby, które czytały zdanie wzbogacone istotną elaboracją - aż 74%. Co ciekawe, w przypadku zdań z elaboracją nieistotną, poziom odtworzenia był istotnie niższy niż w warunku „neutralnym” i wynosił 22%. Wpływ na zapamiętywanie ma również zgodność kontekstu zapamiętywa nia i odtwarzania. Godden i Baddeley (1975) dowiedli, że poprawność odtwo rzenia rośnie z ok. 20% do 30%, czyli o połowę, kiedy zgodność taka występuje (zob. ryc. 9.5). Autorzy zbadali grupę płetwonurków, którzy uczyli się listy słów w jednej z dwóch sytuacji: albo pod wodą albo na lądzie. Następnie testowano odtwarzanie zapamiętanego materiału, przy czym test mógł odbywać się w miej scu zgodnym albo niezgodnym z kontekstem uczenia się. Rezultaty późniejszych badań nakazywały ograniczyć zakres efektu kontekstu do testów opartych na swobodnym odtwarzaniu. Kiedy Godden i Baddeley (1980) zastosowali test rozpoznawania, wpływ zgodności kontekstu zapamiętywania i odpamiętywania okazał się nieistotny. Smith i Vela (2001) dowodzą, że efekt kontekstu wystę puje wówczas, gdy po prostu jego elementy są włączane w strukturę zapamię tywanego materiału. Wspominaliśmy, że nawet wiedza semantyczna może być kodowana przy współudziale pamięci epizodycznej. W tym przypadku kontekst, będący integralną właściwością zapamiętywanego epizodu, stanowi zestaw wskazówek wykorzystywanych przy wydobyciu wiedzy semantycznej. Jeśli jednak kontekst jest ubogi, np. podczas monotonnego „wkuwania” wiedzy z książki, nie będzie miał wpływu na odtwarzanie, bowiem nie dostarczy dystynktywnych wskazówek wydobycia. Wygląd pokoju do nauki lub biblioteki z pewnością nie będzie ignorowany, ale jako jedyna wskazówka kontekstualna dla obszernego i różnorodnego materiału nie pomoże w jego wydobyciu. Z kontekstem zapamiętywania wiąże się tzw. efekt specyficzności ko dowania (encoding specificity effect), opisany przez Tulvinga i Thomsona (1973). W przeprowadzonych badaniach zastosowali oni dość nietypową proce durę eksperymentalną, która składała się z czterech faz (zob. tab. 9.1). W pierw szej fazie osobom badanych pokazano 24 pary słów, polecając zapamiętanie
9.2. Zapam iętyw anie
385
50-
5 ocj SoZ >. co N
40-
odtwarzanie pod wodą
30-
o
Ś •O o o 20o "w oO 10
odtwarzanie na lądzie
-
I na lądzie
pod wodą uczenie się
Ryc. 9.5. Odsetek rozpoznanych slow w zależności od zgodności kontekstu uczenia się i odpamiętywania (za: Godden, Baddeley, 1975). Tab. 9.1. Plan eksperymentu Tulvinga i Thomsona (1973) dotyczącego efektu specyficzności kodowania. 1. Uczenie się listy: zapamiętaj słowa napisane wielkimi literami. Wskazówka Słowo Head LIGHT Grasp BABY 2. Wolne skojarzenia: wymyśl 6 słów do każdego z przedstawionych słów. Słowo Skojarzenia Dark light, black, room, ... Infant
sleeping, bottle,baby, ...
3. Zaznacz te słowa wśród twoich skojarzeń, które na pierwszej liście były napisane dużymi literami. 4. Odpamiętaj słowa napisane wielkimi literami na pierwszej liście, korzystając ze wskazówek, które były prezentowane z nimi w parze. Grasp ___________________ Head
tylko drugiego słowa. Wyrazy te miały więcej niż jedno znaczenie, np. light jako rzeczownik „światło” albo przymiotnik „lekki”. W instrukcji zwrócono uwagę, że pierwsze słowo w parze może być pomocne w zapamiętaniu drugiego (np. headlight to reflektor samochodowy). W drugiej fazie badań uczestnicy wykonywali test wolnych skojarzeń, wymagający wygenerowania sześciu sko
386
Rozdział 9. Czynności pamięciowe
jarzeń w odpowiedzi na podane słowo. To ostatnie tak dobrano, aby tworzyło silny związek skojarzeniowy ze słowem docelowym z pierwszej fazy badań (np. dark, ciemność). Większość osób badanych wśród sześciu skojarzeń podawała wyraz „światło”, co - zgodnie z założeniami badaczy - miało aktywować jedno, określone znaczenie słowa docelowego light. W kolejnej fazie osoby badane miały za zadanie rozpoznanie wśród wygenerowanych przez siebie skojarzeń tego słowa, które było wcześniej umieszczone na liście słów do zapamiętania. Roz poznanie odbywało się więc w innym kontekście semantycznym, niż zapamięty wanie w pierwszej fazie eksperymentu. Na koniec osoby badane wykonywały test odtwarzania na podstawie wskazówki (cued recall). Ich zadanie polegało na odtworzeniu słowa docelowego na podstawie pierwszego wyrazu z pary prezen towanej w fazie pierwszej. Okazało się, że osoby badane rozpoznały poprawnie zaledwie 22% słów docelowych, podczas gdy w odtwarzaniu na podstawie wskazówki odpamiętały ich aż 59%. Rezultaty te są interesujące co najmniej z dwóch powodów. Po pierwsze wskazują wyraźnie na specyficzność kodowania dwuznacznych słów, które w pierwszej fazie eksperymentu - dzięki wskazówce zawartej w pierwszym słowie - kodowane były w jednym tylko znaczeniu. Dlatego ich rozpoznanie okazało się trudniejsze niż przypominanie. Zadanie związane z testem roz poznania powodowało pojawienie się słowa docelowego, ale w drugim z alter natywnych znaczeń. Kiedy jednak w ostatniej fazie powrócono do znaczenia aktywowanego w momencie kodowania, odtwarzając tym samym oryginalny kontekst zapamiętywania, poprawność odpamiętania była niemal trzykrotnie wyższa w porównaniu z fazą trzecią. I to jest drugi powód szczególnego zna czenia badań Tulvinga i Thomsona. Badacze pokazali, że w pewnych warunkach rozpoznanie, zazwyczaj prowadzące do lepszych rezultatów, może okazać się trudniejsze, niż przypominanie. W większości badań wyniki są dokładnie przeciwne, co - jak twierdzą Fisher i Craik (1977) - wynika z braku specy ficznych wskazówek w procesie kodowania i dlatego późniejsze wydobywanie odbywa się na podstawie klucza semantycznego. Tymczasem Fisher i Craik (1977), wykorzystując paradygmat poziomów przetwarzania (zob. paradygmat 8.1) wykazali, że dzięki specyficznym wskazówkom można uzyskać wyższy poziom odpamiętania słów docelowych opierając się na kluczu fonetycznym, a nie semantycznym. Badacze wykorzystali manipulację głębokością przetwo rzenia prezentowanych słów z klasycznej procedury Craika i Tulvinga, ograniczając się jednak do dwóch głębszych poziomów, czyli pomijając poziom sensoryczny. Dodatkowo wprowadzili manipulację, która polegała na stwo rzeniu warunków wydobycia na podstawie wskazówek fonetycznych albo se mantycznych, przy czym wskazówki te mogły być zgodne albo niezgodne z po ziomem kodowania informacji. W warunkach wydobycia opartych na wska zówkach fonetycznych prezentowano słowo, które pojawiało się w fazie ko dowania, ale nie było słowem docelowym. Na przykład, jeśli w fazie kodowania pojawiało się pytanie: „Czy słowo rymuje się ze słowem ‘dynia’? ” (płytsze kodowanie fonetyczne), to słowem docelowym mógł być wyraz „skrzynia” albo „targ”. W fazie testowej jako wskazówkę fonetyczną, zgodną w tym przypadku z poziomem kodowania, prezentowano słowo „dynia”. W przypadku seman tycznego poziomu kodowania zastosowano dokładnie taką samą procedurę, lecz oznaczało to wówczas niezgodność wskazówki fonetycznej z głębokim po
9.2. Zapamiętywanie
387
ziomem kodowania. W każdym warunku zadania osoby badane miały przypom nieć sobie jak najwięcej słów docelowych. Badania Fishera i Craika wykazały, że w wypadku prezentacji wskazówek fonetycznych poziom odtworzenia słów kodowanych płytko wyniósł 40%, a ko dowanych głęboko 29%. Był więc istotnie wyższy na płytkim poziomie prze twarzania. W wypadku wskazówek semantycznych, podobnie jak w klasycznych badaniach Craika i Tulvinga, poziom odtworzenia słów kodowanych głęboko był zdecydowanie wyższy (78%), niż słów kodowanych płytko (10%). Okazało się, że specyficzność kodowania informacji jest czynnikiem silniejszym, niż poziom jej przetworzenia.
9.2.2. Interferencja proaktywna Wiedza jest zazwyczaj czynnikiem wspomagającym zapamiętanie materiału, jeśli pozwala na jego reorganizację albo elaborację. W pewnych okolicznościach wiedza może być jednak czynnikiem przeszkadzającym w zapamiętywaniu nowych informacji. Zjawisko to jest ewidentne w wypadku wiedzy procedural nej, kiedy zmuszeni jesteśmy dokonać modyfikacji w zakresie dobrze zautoma tyzowanej czynności. Okazuje się, że im taka czynność jest lepiej wyćwiczona, tym trudniej dokonać jej modyfikacji bądź zastąpić ją inną czynnością, a jeśli się już tego dokona, to trudniej sprawić, aby zmiana była trwała (Underwood, 1945; Underwood, Postman, 1960). Jest to zjawisko tzw. interferencji proaktywnej, które ujawnia się, kiedy dochodzi do zakłócenia procesu nabywania, utrwalania albo przechowywania nowej wiedzy, wywołane wiedzą wcześniej nabytą, jeśli między tymi dwoma rodzajami wiedzy występuje jakiś związek. Odkrywca tego efektu, Hugo Munsterberg, zauważył, że kiedy zmienił kie szeń, w której przechowywał swój zegarek, chcąc sprawdzić, która jest godzina, wciąż sięgał do nieodpowiedniej kieszeni. Była to kieszeń, w której wcześniej przez lata trzymał ów zegarek. W tym czasie - behawioralnie rzecz ujmując utrwalił związek pomiędzy bodźcem (S), jakim było pytanie o to, która jest godzina, z reakcją (R), którą było sięgnięcie do odpowiedniej kieszeni. Po zmianie miejsca przechowywania zegarka, połączenie S-R stało się nieadekwat ne, bowiem z tym samym bodźcem (S) związana została nowa reakcja (R’). Jednak uprzednia wiedza, w tym przypadku zautomatyzowana procedura, była przeszkodą w utrwaleniu nowej wiedzy. Zjawisko interferencji proaktywnej dotyczy również wiedzy o charakterze semantycznym. O ile podobieństwo bodźców wyzwalających różne reakcje jest podłożem interferencji w odniesieniu do procedur, o tyle podobieństwo znaczenia różnych treści powoduje interfe rencję w pamięci semantycznej. Schemat badania interferencji proaktywnej, wprowadzony przez Whitly’ego (1927), polega na tym, że grupa eksperymentalna uczy się dwóch rodzajów ma teriału A i B, a następnie odtwarza tylko drugi z nich. Natomiast grupa kontrol na uczy się i odtwarza jedynie materiał B. Różnica między grupami sprowadza się zatem do obecności bądź braku fazy uczenia się materiału A. O zjawisku interferencji wnioskuje się z różnicy w poziomie odtworzenia materiału B w obu grupach: im jest ona większa na niekorzyść grupy eksperymentalnej, tym silniejsza interferencja proaktywna.
388
Rozdział 9. Czynności pamięciowe
W procedurze Whitly’ego manipulacji eksperymentalnej podlegać może ro dzaj relacji, jaki łączy materiał A i B, np. stopień podobieństwa. Melton i Lackum (1941), manipulując podobieństwem list bezsensownych sylab, dowiedli klu czowego wpływu czynnika podobieństwa na wielkość interferencji proaktywnej. Autorzy użyli dwóch list złożonych z 10 sylab, przy czym jedna grupa ekspe rymentalna otrzymała dwie listy sylab podobnych, a druga - niepodobnych do siebie. W wypadku każdej listy zapamiętywanie polegało na pięciokrotnym jej powtórzeniu. Po upływie 20 minut proszono osoby badane o odtworzenie dru giej listy. Okazało się, że pierwsza grupa eksperymentalna odtworzyła 51% mniej słów niż grupa kontrolna, a druga grupa eksperymentalna - 25%. Inter ferencja proaktywana była zatem dwukrotnie wyższa w wypadku materiału po dobnego niż niepodobnego do pierwszej listy. Underwood (1957) w swego rodzaju metaanalizie wyników badań nad zapominaniem odkrył coś, co wydaje się dotyczyć fazy zapamiętywania. Mia nowicie okazało się, że przeciętnie osoby badane zapominały po 24 godz. od badania 20-25% materiału. Jednak jeśli wcześniej uczyły się innego materiału, to odsetek ten wzrastał do 80%. Underwood wyjaśnił to wpływem interferencji proaktywnej, bowiem uprzednio wyuczony materiał obniżał poziom odtwarza nia listy zapamiętanej później. Lusting i Hasher (2001) dowiodły, że zjawisko interferencji proaktywnej występuje również w przypadku pamięci niejawnej. Badaczki prezentowały osobom badanym listę 24 słów, z których każde składało się z 7 liter. Zadaniem badanych było policzenie liczby samogłosek w każdym ze słów. Następnie zastosowano test uzupełniania fragmentów słów (fragment-completion test) w celu zbadania pamięci niejawnej dotyczącej wyrazów z listy. Między pre zentacją listy a testem osoby badane wykonywały dwa zadania buforowe, które miały je „zmylić”. Chodziło o to, aby badani nie uświadomili sobie powiązania prezentacji listy słów z późniejszym testem uzupełniania fragmentów. Test pamięci niejawnej dotyczył tylko drugiej połowy listy, czyli 12 słów docelowych. Natomiast pierwsza część listy zawierała słowa, które w grupie eksperymental nej charakteryzowały się podobieństwem w stosunku do słów docelowych (np. ANALOGY - ALLEGRY), a w grupie kontrolnej były z nimi niezwiązane (np. URGENCY - ALLEGRY). Założono, że jeśli w grupie eksperymentalnej wystąpi interferencja proaktywna, to poziom odtworzenia słów docelowych będzie niższy niż w grupie kontrolnej. W teście pamięci niejawnej eksponowano 70 niepełnych wyrazów (przez 1 s każdy), w tym 12 niepełnych słów docelowych z drugiej części listy. Z każdego słowa usunięto dwie albo trzy litery. W grupie eksperymentalnej usunięto je w taki sposób, aby zachować podobieństwo między słowami z pierwszej i drugiej części listy, np. A_L GY. Osoba badana miała głośno powiedzieć, jakie słowo powstanie po uzupełnieniu brakujących liter. Rezultaty Lusting i Hasher wykazały mniej poprawnych uzupełnień i więcej intruzji z drugiej części listy w grupie eksperymentalnej, niż w grupie kontrolnej. Wydaje się zatem, że interferencja proaktywna jest zjawiskiem występującym niezależnie od rodzaju pamięci i metody jej testowania. Co ciekawe, wykryto je również w wypadku pamięci zapachów (Degel i in., 2001; Koster, Degel, Piper, 2002).
9.2. Zapamiętywanie
389
9.2.3. Konsolidacja śladu pamięciowego 0 odmiennym charakterze biologicznego „nośnika” zapisów krótko- i długo trwałych świadczy wiele badań klinicznych, przeprowadzonych głównie na zwierzętach. Okazało się, że kiedy bezpośrednio po nauczeniu zwierzęcia jakiegoś nowego zachowania aplikowano mu wstrząs elektryczny do mózgu, zwierzę później nie pamiętało czego się ostatnio nauczyło. Jednak jeśli pomiędzy fazą uczenia i wstrząsem elektrycznym upływał pewien czas, wyuczona czynność była pamiętana również po wstrząsie (Stevens, 1981). Podobne rezultaty zaobserwowano u pacjentów, głównie z objawami padaczki skroniowej, pod dawanych elektrowstrząsom w celach terapeutycznych. Nie pamiętali oni niczego, co wydarzyło się bezpośrednio przed zabiegiem, natomiast wszystkie pozostałe zapisy pamięciowe były nienaruszone. Wywnioskowano więc, że nośnikiem zapisów długotrwałych muszą być trwałe zmiany zachodzące w ko mórkach nerwowych mózgu. Proces dokonywania tych zmian nazwano konso lidacją śladu pamięciowego. Mechanizm konsolidacji, łączący powtarzanie w pamięci krótkotrwałej z powstawaniem śladów długotrwałych, opisali McClelland, McNaughton 1 0 ’Reilly (1995). Autorzy założyli, że jeśli krótkotrwale przechowywana infor macja jest wielokrotnie powtarzana, to w trakcie tych powtórek dochodzi do reaktywacji śladów pamięciowych. W ten sposób ślad ulega stopniowemu utrwaleniu, prowadząc do zmian na poziomie neuronalnym. Reaktywacja sprzy ja nie tylko tworzeniu trwałych zapisów pamięciowych, ale również ich inte gracji z uprzednią wiedzą. Poza tym jest kluczowym czynnikiem podnoszenia sprawności motorycznych i poznawczych dzięki praktyce. Jaki jest przypusz czalny mechanizm tych zmian na poziomie neuronalnym? W serii badań na zwierzętach Ungar (1980) poddał weryfikacji hipotezę, że trwałym nośnikiem pamięci jest białko kwasu RNA, które, w przeciwieństwie do DNA, relatywnie łatwo podlega modyfikacjom. Nauczono szczury niety powej dla nich reakcji unikania ciemności, a następnie porównano wyciąg z ich mózgów z wyciągami zwierząt nie poddanych warunkowaniu. Różnice między nimi dotyczyły właśnie pewnych łańcuchów RNA. Dalsze prace badawcze pozwoliły na zidentyfikowanie dokładnej struktury łańcucha RNA, który był odpowiedzialny za kodowanie tej specyficznej wiedzy. Okazało się, że zsyntetyzowany w laboratorium związek o identycznej strukturze, wstrzyk nięty innym osobnikom, wyraźnie przyspieszał uczenie się reakcji unikania ciemności. Konsolidacja jest procesem opisywanym przez biologów w kategoriach trwałego wzmocnienia albo osłabienia transmisji synaptycznej. Proces ten wy maga udziału jądra komórkowego neuronu oraz zmian w ekspresji genów i w syntezie aminokwasów (por. Berridge, 1996; zob. ryc. 9.6). Co prawda mechanizm konsolidacji nie został do końca poznany, ale najbardziej popularna obecnie teoria opisuje go jako proces dwufazowy. Pierwsza faza polega na przesłaniu sygnału z synaps do jądra komórkowego, co prowadzi do zmiany ekspresji genów. W drugiej fazie, informacja z jądra jest przekazywana zwrotnie do synaps, powodując w nich zmiany strukturalne. Co istotne, często są to zupełnie inne synapsy, niż pierwotnie angażowane w odbiór informacji. Dlatego hipokamp, który bierze udział w procesie nabywania wiedzy i wzmacniania
390
Rozdział 9. Czynności pamięciowe
.......... \ ___ powiązanie cAMP Ca2+
---------- -----
//
CIAŁO NEURONU
r
geny późnej odpowiedzi komórkowej
a r , 2+ ^► cA M P-
\
0
1
V 1
_i_______ _____
geny wczesnej odpowiedzi komórkowej
Ryc. 9.6. Mechanizm konsolidacji śladu pamięciowego. Równoczesne pobudzenie dwu oddzielnych wejść na komórce nerwowej aktywuje układ wtórnych przekaźników (Ca2+ i cAMP) odpowiedzial nych za początkową fazę nabywania informacji. Poprzez przeniesienie sygnału z wtórnych przekaźników na kinazy i fosfaty białkowe informacja może być przechowywana przez dłuższy czas. Do przetworzenia jej w utrwaloną formę pamięci konieczna jest konsolidacja zmian synaptycznych poprzez aktywację transkrypcji genów. Powiązanie sygnałów nie musi zachodzić w tym samym neuronie co konsolidacja informacji, wykazano bowiem, że pamięć krótkotrwała pojawiająca się w danym zespole neuronów może być utrwalona w zupełnie innym zespole neuronów (za: Niewiadomska, 2000, s. 273).
śladów pamięciowych we wczesnych fazach przechowywania informacji, nie mu si brać udziału w jej magazynowaniu. Innymi słowy, wczesna obróbka infor macji i trwałe jej magazynowanie mogą odbywać się w zupełnie różnych, strukturalnie odrębnych i oddalonych od siebie obszarach mózgu.
9 .2 .4 . Techniki m nem oniczne Techniki mnemoniczne to sformalizowane metody wspomagania zapamiętywa nia. Można je podzielić na dwie grupy w zależności od mechanizmów poznaw
9.2. Zapamiętywanie
391
czych, do których się odwołują. Pierwsza grupa mnemotechnik odnosi się do teorii podwójnego kodowania Paivio (1969). W praktyce techniki te sprowa dzają się do wykorzystania więcej niż jednego kodu reprezentacji w trakcie nabywania określonego materiału. Ponieważ najczęściej zapamiętujemy mate riał werbalny, zabiegi mnemoniczne tego typu polegają na łączeniu go z wyobrażeniami wzrokowymi. Dzięki nim informacja kodowana jest w dwóch systemach: werbalnym i obrazowym, co zwiększa szanse jej późniejszego od tworzenia. Druga grupa mnemotechnik polega na różnych sposobach orga nizowania informacji. Dzięki nim informacjom początkowo nieuporządkowa nym nadawana jest pewna struktura. Techniki z tej grupy wspomagają zna lezienie sposobu kategoryzacji albo odwołują się do wcześniej nabytej, złożonej wiedzy, jako szkieletu dla zapamiętywanych informacji. Jeśli nowy materiał zostanie właściwie „nałożony” na materiał już istniejący, przywołanie tego dru giego wspomaga odpamiętanie tego pierwszego. Są też techniki odwołujące się do obu mechanizmów jednocześnie. Co istotne, skuteczne stosowanie mnemo technik wymaga właściwego ich doboru w zależności od rodzaju materiału. Po niżej omówione zostały najważniejsze techniki mnemoniczne, z zaznaczeniem specyfiki materiału do którego są one najlepiej dopasowane. Techniką wywodzącą się z teorii podwójnego kodowania jest tzw. metoda obrazów interaktywnych. Jest to technika przeznaczona do zapamiętywania luźnej listy słów. Polega na powiązaniu wyobrażeń wyzwalanych przez te sło wa w taki sposób, aby powstała jakaś historia - nawet nierealna, ale wew nętrznie spójna. Ponieważ łatwiej stworzyć imagen dla logogenu pojęcia o dużym potencjale wyobrażeniowym, jest ona najbardziej skuteczna w wy padku konkretnego materiału werbalnego. Na przykład, jeśli lista słów zawiera następujące pozycje: sputnik, kot, lód, pudełko, ząb, kalosze, hipokamp, lampa, matryca, dzięki obrazom interaktywnym możemy stworzyć następującą historyjkę: W tajnym projekcie z lat 70. XX w. na orbicie w radzieckim sputniku wraz z Łajką znalazł się kot. Celem projektu było sprawdzenie wpływu niskich temperatur (w słabo ogrzewanym wnętrzu sputnika szybko pojawił się lód) i stanu nieważkości na zachowania społeczne zwierząt. Zwierzęta żywiły się mlekiem w proszku (ząb mleczny), dozowanym z pudełka w kształcie buta (kalosze). Po powrocie na ziemię, badaniom poddano pamięć zwierząt (hipokamp), ich stan zdrowia (lampa nad stołem zabiegowym), a wyniki tych badań przedstawiono w postaci matrycy. Bardziej praktyczne zastosowanie tej metody jest związane z uczeniem się słówek obcego języka. Przedstawimy to na konkretnym przykładzie. Rzeczow nik języka angielskiego nut ma kilka znaczeń, z których najbardziej znane to „orzech”. Kiedy dowiedziałem się, że idiomatyczne znaczenie tego słówka to „świr”, zobaczyłem w zachodniej telewizji reklamę batona orzechowego nazy wającego się Nuts. W reklamie pewien człowiek - sympatyczny „świr” - robił różne zwariowane rzeczy. Od tamtej pory oba znaczenia tego słówka utkwiły mi głęboko w pamięci. Badania empiryczne nad skutecznością techniki obrazów interakcyjnych prowadzili Roediger (1980) oraz Reynolds i Flagg (1983). Reynolds i Flagg jako materiału do swoich badań użyli 120 słówek języka rosyjskiego. Jedną grupę
392
Rozdział 9. Czynności pamięciowe
osób badanych przećwiczono w stosowaniu techniki obrazów interakcyjnych, podczas gdy grupa kontrolna nie przeszła takiego treningu. Po upływie 24 godz. od zakończenia uczenia się obu grup, badani z grupy eksperymentalnej byli w stanie odpamiętać 72%, a z grupy kontrolnej - 46% słówek. Przewaga osób stosujących mnemotechnikę obrazów interaktywnych utrzymała się nawet po upływie 6 tygodni. Roediger porównał natomiast skuteczność tej techniki w zależności od metody odpamiętywania. Okazało się, że relatywny przyrost liczby zapamiętanych słów był nieco wyższy w wypadku odtwarzania w ko lejności (26%) niż odtwarzania swobodnego (20%), jeśli zestawić ją z liczbą słów zapamiętanych w warunku kontrolnym, czyli przed treningiem techniki obrazów interaktywnych. Techniką organizującą zapamiętywany materiał jest kategoryzowanie, ale warunkiem jej użycia jest możliwość zastosowania wobec zapamiętywanego materiału tradycyjnych, a jeśli to niemożliwe - nietypowych kategorii. Ten sposób świetnie nadaje się np. do zapamiętania listy zakupów. Zastanówmy się jednak, czy możliwe jest jej wykorzystanie do zapamiętania poprzednio poka zanej listy słów: sputnik, kot, lód, pudełko, ząb, kalosze, hipokamp, lampa, matryca. Wydaje się, że możliwe byłoby ograniczenie liczby zapamiętywanych elementów do trzech kategorii: (1) obiektów „chłodnych”: lód, sputnik (znaj duje się w chłodniej przestrzeni kosmicznej), matryca (kojarząca się z inte lektualnym „chłodem” nauk ścisłych); (2) obiektów kojarzących się z umysłem: kot („mieć kota w głowie”), ząb (mądrości), hipokamp oraz (3) obiektów niezbędnych do wędkowania nocą: kalosze, lampa oraz pudełko (na haczyki lub przynętę). Inną mnemotechniką opartą o zasadę organizacji materiału jest system słów-wieszaków {pegword system). Polega ona na użyciu jakiegoś dobrze znanego tekstu, jako „wieszaka” albo szkieletu dla nowo nabywanej informacji. Metoda ta odwołuje się jednocześnie do wyobrażeń, bowiem powiązania między starym a nowym materiałem dokonują się dzięki obrazom interaktyw nym. Takim tekstem-wieszakiem może.być dziecięcy wierszyk, rymowanka czy wyliczanka, ale raczej o treści konkretnej niż abstrakcyjnej. Łatwiej wówczas stworzyć obrazy interaktywne, będące podstawą nakładania nowego na stare. Jeśli w zapamiętywanej treści istotna jest kolejność słów, bardziej efektywna okazuje się wyliczanka. Stąd też inna nazwa tej techniki: One is a bun, po chodząca z popularnej anglojęzycznej wyliczanki. Załóżmy, że chcemy zapamiętać pięć rzeczy do zrobienia w danym dniu, których nie wykonujemy rutynowo, więc istnieje ryzyko, że o czymś zapo mnimy. Niech to będzie przykładowo: wysłanie e-maila do znajomego, opłacenie bieżących rachunków, poszukanie artykułu potrzebnego do napisania pracy zaliczeniowej, kupienie prezentu urodzinowego i zarejestrowanie się do lekarza. Weźmy przykład wyliczanki znanej polskim dzieciom: „Raz dwa to jest gra, mamy wszystko zliczyć. / Dom dwa okna ma / i jedno w piwnicy. / Trzy i cztery są pory dnia i roku / a pięć chcemy mieć z każdego przedmiotu”. „Grę” możemy skojarzyć z wysłaniem e-maila, bowiem niektóre gry i wszystkie e-maile wymagają użycia komputera. „Zliczanie” możemy zaś połączyć z płaceniem rachunków, tym bardziej, że zanim pójdziemy na pocztę powinniśmy obliczyć, ile gotówki będzie nam potrzebne. Porę dnia łatwo powiązać z rejestrowaniem się do lekarza, bowiem wciąż zdarza się, że w prak
9.2. Zapamiętywanie
393
tyce rejestracja jest możliwa w wąskim przedziale czasu, np. 8.00-8.15. Z porą roku nietrudno z kolei powiązać urodziny, wyobrażając sobie daną osobę jako dziecko w scenerii związanej z daną porą roku. I wreszcie z piątką z każdego przedmiotu ściśle wiąże się praca pisemna, więc możemy wyobrazić sobie, co by się stało, gdyby nie odwołać się w niej do artykułu, którego musimy poszukać. W badaniach Roedigera (1980) system słów-wieszaków okazał się metodą niezwykle efektywną w zapamiętywaniu elementów w określonej kolejności. Przyrost liczby poprawnie odtworzonych słów uzyskany dzięki jej zastosowa niu, w porównaniu do warunku kontrolnego, wyniósł 62%. Szkieletem dla nowej informacji może być bogata i różnorodna wiedza nabyta przez jednostkę. Ericsson, Chase i Faloon (1980) opisali przypadek mężczyzny o inicjałach S.F., który oprócz wybitnej pamięci miał dobre wyniki w biegach na długich dystansach. Po dwóch latach treningu zakres pamięci S.F. wzrósł od wartości przeciętnej w populacji, czyli ok. 7 aż do 80 elementów, jeśli materiałem zapamiętywanym były cyfry. S.F. nauczył się kodować eksponowane mu ciągi cyfr jako wyniki uzyskiwane w biegach na różnych dystansach; wyniki te były dla niego szkieletem dla nowej informacji. Trening nie poprawił jednak ogólnych wskaźników jego pamięci, gdyż zastosowanie innego materiału niż cyfry sprawiało, że wyniki S.F. były dość przeciętne. Co więcej, jego zdolność zapamiętywania ciągów cyfr pogarszała się, jeśli celowo utrudniano mu powiązanie ich z jego wiedzą o wynikach w biegach. Hunt i Love (1972) opisali z kolei przypadek osoby V.P., która - najprawdopodobniej dzięki znakomitej pamięci autobiograficznej - zapamiętywała długie ciągi cyfr. Szkieletem były w jej przypadku daty, które wiązały się z różnymi wyda rzeniami z życia V.P. Przypadki S.F. i V.P. pokazują, że wiedza różnego rodzaju może być „wieszakiem” dla zapamiętywanego materiału, jednak pod warun kiem, że istnieje ścisły związek między uprzednio nabytą wiedzą a nową in formacją. Inną techniką łączącą organizowanie materiału i wizualizację jest metoda miejsc (loci mnemonic). Podobnie jak system słów-wieszaków wymaga ona nałożenia nowego materiału na znany, przy czym ten drugi musi zostać sko jarzony z konkretnymi miejscami w przestrzeni, np. charakterystycznymi budynkami na dobrze nam znanej drodze z domu na uczelnię łub do pracy. Z każdym z tych charakterystycznych miejsc należy skojarzyć jeden z zapamię tywanych elementów, tworząc w ten sposób pary. W odtwarzaniu wystarczy tylko wyobrazić sobie owe charakterystyczne miejsca, zyskując w ten sposób dostęp do drugiego elementu. Metoda ta doskonale nadaje się do zapamiętywa nia materiału w określonej kolejności, bowiem w „szkielecie” starej wiedzy kolejność jest z góry ustalona. Dlatego w badaniach Roedigera (1980) metoda miejsc okazała się najskuteczniejszą z omówionych dotychczas mnemotechnik, jeśli w odtwarzaniu listy słów istotna była ich kolejność. Liczba elementów odtworzonych w zadanej kolejności wzrastała wówczas o 100% w porównaniu do warunku kontrolnego. Doskonały przykład przydatności tej metody podaje Maruszewski (2001). Sprawa dotyczy niezbyt przyjemnego momentu w życiu każdego ucznia, tj. zapamiętywania pocztu królów polskich. Problem polega na tym, że zapamiętać należy nie tylko 34 władców, ale i kolejność ich panowania. Metoda miejsc może być pewnym ułatwieniem, jeśli każdego z nich skojarzymy najpierw z pewnym
394
Rozdział 9. Czynności pamięciowe
charakterystycznym miejscem na naszej - uczniowskiej - drodze do szkoiy. I tak Maruszewski proponuje, aby Mieszko I wyglądał przez okno budynku stojącego obok naszego domu, a Bolesław Chrobry - oparty na berle - stał w bramie kolejnego budynku itd. Metoda miejsc może być nie tylko skutecznym sposobem zapamiętania pocztu królów, ale również wprowadzać element humoru, który może sprzyjać utrwaleniu skojarzenia. Comoldi i de Beni (1991) dowiedli, że metoda miejsc może być użyteczna w zapamiętywaniu tekstów, a nie tylko listy słów. Autorzy porównali wyniki dwóch grup osób badanych, które miały zapamiętać treść wykładu o długości 2100 słów. Wykład mógł być albo wygłoszony przez wykładowcę, albo odczytany samodzielnie przez osoby badane. Jedna grupa przećwiczona została wcześniej w stosowaniu metody miejsc i przyswoiła sobie listę 20 charakterys tycznych miejsc w swoim mieście. W tych miejscach miała ulokować kluczowe elementy wykładu. Grupa kontrolna nie została poddana treningowi użycia tej metody. Poziom odtworzenia istotnych informacji z tekstu okazał się wyższy w grupie eksperymentalnej, przy czym różnica ta była większa w wypadku wykładu wygłoszonego, niż samodzielnie odczytanego. Użyteczną mnemotechniką - różniącą się nieco od wyżej opisanych jest metoda mapy poznawczej (mind map; Buzan, Buzan, 1996). Jest to tech nika pisemno-graficzna, a jak wiadomo, notowanie jest jedną z podstawowych mnemotechnik, które stosujemy, aby coś lepiej zapamiętać. Jednocześnie łą czy ona zalety technik organizacji i wizualizacji zapamiętywanego materia łu. Metoda mapy poznawczej polega na hierarchicznym uporządkowaniu zło żonej informacji w postaci specyficznego diagramu (zob. ryc. 9.7). Central na część mapy poznawczej dotyczy istoty zagadnienia, ujętej w postaci słowa kluczowego albo jego rysunkowej wizualizacji. Od tej części odchodzą „ga łęzie”, reprezentujące najważniejsze aspekty analizowanego zagadnienia, opi sane pewną etykietą albo zilustrowane rysunkiem. Jeszcze niżej w hierarchii umieszczane są istotne informacje o bardziej szczegółowym charakterze. Tym samym mapa poznawcza odzwierciedla strukturę analizowanego zagadnienia w sposób przypominający sieć semantyczną, a więc w postaci hierarchicznej, gdzie węzłami są słowa kluczowe albo ich wizualizacje. Zaleca się, aby sto sować różnorodne sposoby zindywidualizowania mapy poprzez bogate jej ilustrowanie, które mogą zastępować sformułowania werbalne, albo towarzy szyć im. Farrand, Hussain i Hennessy (2002) analizowali skuteczność techniki ma py poznawczej w nabywaniu wiedzy medycznej. Osoby badane - studenci me dycyny - otrzymały tekst o długości 600 słów, z poleceniem zapoznania się z nim. Grupa eksperymentalna odbyła wcześniej trening w stosowaniu techniki map poznawczych i została poinstruowana, aby jej użyć w trakcie uczenia się. Grupa kontrolna miała po prostu zapoznać się z tekstem, stosując dowolną metodę. Po upływie tygodnia obie grupy różniły się poziomem odpamiętania informacji z tekstu o ok. 10-15%: grupa eksperymentalna udzieliła więcej prawidłowych odpowiedzi w teście wiadomości z zakresu materiału zawartego w otrzymanym tekście.
...jeśli powtórkom
f
w:ększa liczba
towarzyszy
powtórzeń
pogłębienie
(Ebbinghaus)
przetwarzania
konsolidacjaśtadu>
v n -S ' pamięciowego materiał bezsensowny: odstęp od 10 min do 24 godz. materiał sensowny
ponowne uczenie się
(słówka języka
r (Ebbinghaus, Tulving)
obcego): dłuższe odstępy, więcej powtórzeń wotne tempo J 7 J ekspozycji materiału (6 s /słowo) podwójne (werbalne i obrazowe) kodowanie materiału grupowanie kategorialne
7 7 organizacja materiału j£±
uprzednia wiedza np, o kategoriach semantycznych materiału
Co pomaga?
podlegającemu
interferencja
_L Z
proaktywna (uprzedni pamięć proceduralna
uczeniu się_________ powiązanie
materiał przeszkadza w uczeniu się
.
nowego)
pamięć semantyczna
ZAPAMIĘTYWANIE
W
z posiadaną wiedzą
etaboracja
poszukanie informacji
(opracowanie)
uzupełniających lub wyjaśniających
pamięć niejawna
H
'V_ niska motywacja
czynniki
zgodność kontekstu
7
zapamiętywania
efekt kontekstu
i odpamiętywania
efekt specyficzności kodowania
Co przeszkadza?
farmakologiczne zaburzenia uszkodzenia mózgu,
konsolidacji
ijf ł nie*
szczególnie okolic płatów skroniowych
! kategoryzowanie
techniki mnemomczrie
*
U
system słów - wieszaków
metoda miejsc
ffe technika MAPY POZNAWCZEJ
Ryc. 9.7. Technika mapy poznawczej w zastosowaniu treści podręcznika poświęconych czynnikom sprzyjającym i przeszkadzającym w zapamiętywaniu (oprać, własne).
396
Rozdział 9. Czynności pam ięciow e
9.3. Przechowywanie 9.3.1. Zapominanie Hermann Ebbinghaus, w badaniach opisanych w przywoływanej już pracy z 1885 r., wykrył, że proces zapominania listy bezsensownych sylab przebiega bardzo szybko (zob. ryc. 9.8). Większość materiału tracimy już po kilkudzie sięciu minutach, po czym tempo zapominania zdecydowanie spada. Nieco inaczej przedstawiają się wyniki badań nad zapominaniem, jeśli zapamiętywany materiał jest sensowny. Jednym z pierwszych badaczy, który dokonał precy zyjnego porównania tempa zapominania informacji w zależności od jej sensow ności, był Ballard (1913). Badacz zastosował trzy rodzaje materiału: fragment prozy, wiersz i - kontrolnie - bezsensowne sylaby. Manipulował również odstę pem czasu pomiędzy momentem zakończenia uczenia się a testem odtworzenia (w przedziale 1-7 dni). Specyfiką jego badania było wprowadzenie ograniczenia czasowego w trakcie uczenia się, które powodowało, iż badani nie byli w stanie w pełni opanować materiału. Po upływie tygodnia poprawność odpamiętania bezsensownych sylab spadła do 70% w stosunku do poziomu wyjściowego, ustalonego po zakończeniu uczenia się (100% nie oznaczało więc bezbłędnego przypomnienia całego materiału). W wypadku materiału sensownego, czyli prozy i wiersza, po tygodniu badani odtwarzali poprawnie ok. 90%, również w stosunku do poziomu wyjściowego. Z kolei Bahrick (1984) badał proces zapominania słówek języka hiszpań skiego wśród osób, dla których był to drugi język nabyty w trakcie nauki szkolnej. Badacz testował przypominanie, rozpoznawanie i rozumienie słówek w grupach osób, które w różnym czasie od momentu badania zakończyły naukę drugiego języka. Maksymalny przedział czasu, jaki upłynął od tego momentu, wynosił 50 lat. Badaniami objęto łącznie aż 773 osoby. Okazało się, że w zależności od zastosowanej miary pamięci - spadek poprawności wykonania testów słownikowych był różny. Ogólnie spadek ten był największy w przeciągu pierwszych trzech lat od zakończenia nauki. Po tym okresie w przypadku testów rozpoznawania i rozumienia wyniki stabilizowały się na poziomie ok. 75% poprawnych rozpoznań, a w przypadku testów przypominania na poziomie ok. 40%. Wyniki te utrzymywały się bez zmian nawet po 50 latach od zakończenia nauki, z wyjątkiem rozumienia słów, które po upływie ok. 8 lat od zakończenia nauki ulegało powolnemu liniowemu spadkowi. Znacznie słabsze efekty zapominania wykryto w wypadku umiejętności proceduralnych. Dobrze zautomatyzowane umiejętności są mało podatne na wpływ takich uszkodzeń mózgu, które powodują utratę możliwości nabywania wiedzy deklaratywnej. Słynny pacjent H.M., wskutek operacji neurochirurgicz nej, powodującej uszkodzenie przyśrodkowych części płatów skroniowych, utracił bezpowrotnie możliwość nabywania nowej wiedzy zarówno semantycz nej, jak i epizodycznej1. Wiązało się to prawdopodobnie z zaburzeniem 1 W filmie „Memento” przedstawiono historię człowieka, który, podobnie jak pacjent H.M., utracił zdolność nabywania wiedzy kodowanej w LTM. Reżyser w niezwykle obrazowy sposób przedstawił potencjalne konsekwencje takiego stanu, które - jeśli uwzględnić nietypową sytuację głównego bohatera - wydają się w większości prawdopodobne.
9.3. Przechow yw anie
czas przechowywania (godz.)
397
(dni)
Ryc. 9.8. Poprawność odtworzenia listy bezsensownych sylab jako funkcja czasu przechowywania (za: Ebbinghaus, 1885/1913).
mechanizmu konsolidacji śladów pamięciowych, bowiem jego pamięć długoi krótkotrwała - niezależnie od siebie - funkcjonowały prawidłowo. H.M. był w stanie korzystać z wiedzy i umiejętności nabytych przed zabiegiem. Wypadał również przyzwoicie w zdaniach na pamięć krótkotrwałą. Nie był jednak w stanie trwale zapamiętywać nowej wiedzy, przy czym okazało się, że dotyczy to tylko wiedzy deklaratywnej. H.M. nie utracił natomiast zdolności nabywania wiedzy proceduralnej: po zabiegu nauczył się kilku zupełnie nowych umiejętności, nie tylko motorycznych, ale i poznawczych, np. czytania pisma lustrzanego (Cohen, Squire, 1980). Ta wybiórczość zaburzeń pamięci H.M. sugeruje odmienność poznawczego i mózgowego mechanizmu pamięci proceduralnej i deklaratywnej. W badaniach eksperymentalnych wykryto ponadto, że pamięć proceduralna jest również wyjątkowo odporna na upływ czasu. Fleishman i Parker (1962) poddali osoby badane treningowi umiejętności proceduralnych (głównie motorycznych) w zadaniu będącym symulacją sterowania samolotem. Okazało się, że po dwóch latach od ukończenia treningu poziom wykonania wyuczonych czynności motorycznych nie uległ pogorszeniu. Konkludując, dane empiryczne prowadzą do dość banalnego wniosku: zapominanie jest procesem powszechnym i dotyczy wszystkich rodzajów pamięci, choć każdego w różnym stopniu. W literaturze konkuruje jednak kilka propozycji wyjaśnienia poznawczych mechanizmów tego zjawiska. Jednym z nich jest interferencja retroaktywna.
9.3.2. Interferencja retroaktywna Omówiliśmy już mechanizm interferencji proaktywnej, która stanowi przeszkodę w nabywaniu albo utrwalaniu wiedzy lub umiejętności. Zjawisko interferencji retroaktywnej ma miejsce, kiedy dochodzi do zakłócania procesu przechowywa
398
Rozdział 9. Czynności pamięciowe
nia wcześniej nabytej wiedzy, wywołane wiedzą nabytą później, jeśli występuje między nimi jakiś związek (Underwood, 1945; Underwood, Postman, 1960). Innymi słowy, interferencja retroaktywna jest wywołana nową wiedzą, która wstecznie oddziałuje destrukcyjnie na wiedzę nabytą wcześniej. Zjawisko to jest tym silniejsze, im bardziej podobne są oba rodzaje materiału, im słabsze było opanowanie pierwszego materiału i im bardziej obszerny jest drugi materiał. Klasyczny schemat badania interferencji retroaktywnej przybiera następu jącą postać. Grupa eksperymentalna uczy się kolejno dwóch rodzajów materiału A i B, a następnie odtwarza tylko pierwszy z nich. Natomiast grupa kontrolna uczy się i odtwarza jedynie materiał A. Różnica między grupami sprowadza się zatem do obecności bądź braku fazy uczenia się materiału B pomiędzy za pamiętaniem i odpamiętaniem materiału A. O zjawisku interferencji wnioskuje się z różnicy w poziomie odtworzenia materiału A w obu grupach: im jest ona większa, tym silniejsza interferencja retroaktywna. McGeoch i McDonalds (1931) poddali systematycznym badaniom wielkość interferencji w zależności od podobieństwa materiału A i B. W badaniach tych materiał A stanowiła lista przymiotników, manipulowano natomiast rodzajem materiału B. Mogły to być synonimy lub antonimy przymiotników z listy A, bądź materiał zupełnie z nią niezwiązany: inne przymiotniki, bezsensowne sylaby lub cyfry. Autorzy posłużyli się dwoma kryteriami siły interferencji. Było to porównanie poziomu odpamiętania lub liczby powtórzeń w warunku ponow nego uczenia się w grupach eksperymentalnych, które wykonywały zadanie pamięciowe z jednym z wymienionych wyżej rodzajów materiału, z analo gicznymi wynikami uzyskanymi w grupie kontrolnej. Najsilniejszy negatywny wpływ na odpamiętanie listy A miało zadanie, w którym prezentowano synoni my i antonimy słów na niej użytych, czyli materiału o wysokim stopniu podo bieństwa. Najsłabszy, ale wciąż negatywny wpływ na odpamiętanie listy A wykazało uczenie się materiału najbardziej odbiegającego od zapamiętanych przymiotników, tj. cyfr. Zadanie to nie miało jednak w ogóle wpływu na liczbę powtórzeń w trakcie ponownego uczenia się listy A, niezbędnych do uzyskania jednego bezbłędnego jej odtworzenia. Utrzymał się natomiast negatywny wpływ uczenia się synonimów i antonimów przymiotników z listy A: liczba powtórzeń koniecznych do uzyskania wymaganego kryterium była większa niż w grupie kontrolnej o 60% w przypadku synonimów i 45% w przypadku antonimów. Wzajemnymi wpływami poziomu opanowania materiału A i B na siłę interferencji zainteresował się Briggs (1957). W jego badaniach każdy materiał były powtarzany 2, 5, 10 albo 20 razy, co, łącznie z grupami kontrolnymi, dało 20 warunków eksperymentalnych. Okazało się, że im wyższy był stopień opano wania materiału A, tym słabsza była interferencja retroaktywna, ale im lepsze było opanowanie materiału B, tym interferencja była silniejsza. Zjawisko to przypomina zatem system naczyń połączonych: dwa konkurujące zestawy bodź ców wzajemnie na siebie wpływają, a zmiana w zakresie poziomu opanowania jednego z nich skutkuje zmniejszeniem albo zwiększeniem siły interferencji. Podobnie rzecz się ma z wpływem rozmiaru materiału A lub B na wielkość interferencji retroaktywnej. Interferencja jest większa, jeżeli proporcjonalnie do A rośnie wielkość B, i - odwrotnie - jest mniejsza, jeśli proporcjonalnie do B rośnie rozmiar A. Wyjaśnienia tego zjawiska - wbrew pozorom - nie są zado walające. McGeoch i Irion (1952) tłumaczyli je zwiększeniem odporności
9.3. Przechowywanie
399
dłuższej listy na interferencje, wynikające z „przeuczenia” niektórych jej ele mentów. Jest to bardziej prawdopodobne, jeśli lista jest pokaźna, więc i jej ucze nie się trwa długo. Jednak wydaje się, iż może chodzić o wpływ czysto staty styczny. Krótsza lista B słabiej wpływa na dłuższą listę A, bowiem prawdo podobieństwo występowania związków między listami jest mniejsze niż wów czas, gdy lista B jest długa. Załóżmy, że każde z 5 słów z listy B wiąże się jakąś relacją z 2 słowami z listy A, zawierającej 40 słów. Zatem 30 słów z listy A nie zostanie w żaden sposób zakłóconych, wpływając tym samym na obniżenie ma tematycznego wskaźnika interferencji. Każde dodatkowe słowo na liście B automatycznie podnosi wartość tego wskaźnika. Nowsze badania nad zjawiskiem interferencji prowadzą do bardzo szcze gółowych rezultatów, które z konieczności w tym miejscu pominiemy. Jednak nie do przecenienia jest rola, jaką to zjawisko odegrało w sporze między kon kurencyjnymi teoriami mechanizmów zapominania (por. Wixted, 2004b).
9.3.3. Zanikanie śladu kontra utrata dostępu Niezależnie od interferencji retroaktywnej i proaktywnej, od ponad 100 lat konkurują ze sobą dwie teorie zapominania. Ponieważ mechanizmy wyjaśnia jące, do których się odwołują, nie są bezpośrednio dostępne ani behawioralnie, ani neurobiologicznie, spór ten - niewątpliwie interesujący - wydaje się trudny do rozstrzygnięcia. Poza tym rozstrzygnięcie w tej kwestii nie wydaje się konieczne, gdyż mechanizmy te są niesprzeczne, a być może uzupełniają się, i mogą wspólnie wyjaśniać to, co wiemy o zapominaniu. Pierwsza propozycja opisu mechanizmu zapominania, pochodząca jeszcze od Ebbinghausa, odwołuje się do spontanicznego zanikania śladu pamięciowego (decay). Podstawowym czynnikiem wpływającym na trwałość śladów pamię ciowych jest interwał czasu między jego utworzeniem a próbą uaktywnienia. Dzięki powtórkom materiału możliwe jest wzmocnienie odpowiadającego mu śladu pamięciowego. Jeśli jednak ślad nie zostanie w ten czy inny sposób odświeżony, jego dostępność będzie spadać wraz z czasem, aż do całkowitego zaniku. Druga propozycja, autorstwa Tulvinga (1974), opiera się na mecha nizmie utraty wskazówek dostępu (cue-dependent forgetting) do informacji przechowywanej w pamięci. Informacja ta jest nadal potencjalnie dostępna (iavailable), jednak w danym momencie nieosiągalna (not accessible). Innymi słowy, dane do których utraciliśmy dostęp, są wciąż przechowywane w pamięci, choć nie mogą zostać odpamiętane. Niemożność ta jest skutkiem braku wła ściwego klucza wydobycia lub niezgodności kontekstu odpamiętywania z kontekstem kodowania informacji w pamięci. Klasycznym przykładem krótkotrwałej utraty dostępu jest znane zjawisko „końca języka”, kiedy mamy poczucie, że coś wiemy, ale nie możemy tej wiedzy wydobyć. Może to być rzadko używany wyraz albo słówko języka obcego, czyjeś imię, jakaś nazwa. Trzecia propozycja odwołuje się do omówionego już zjawiska interferencji retroaktyw nej. Ze względu na „wsteczne” działanie interferencji retroaktywnej, wpływa ona negatywnie na starsze ślady pamięciowe. Byłaby więc mechanizmem od powiedzialnym albo za zanikanie śladu, jeśli nie ograniczymy się do upływu czasu jako jedynego czynnika, który może je wywoływać, albo za utratę dostępu.
400
Rozdział 9. Czynności pamięciowe
Propozycja ta jest więc w pewnym sensie niezależna od obu powyższych: opisuje bowiem mechanizm zjawiska zapominania informacji, nie rozstrzygając, co się z nią dzieje, tj. czy bezpowrotnie zanika, czy też staje się nieosiągalna. Słynne badania, których celem była falsyfikacja koncepcji zaniku śladu pamięciowego, przeprowadzili Jenkins i Kallenbach (1924). Autorzy założyli, że gdyby jedynie upływ czasu decydował o dynamice zanikania śladu pamięciowe go, nie powinny wystąpić różnice wynikające z interferencji retroaktywnej. Hipotezę tę przetestowali w dość oryginalny sposób. Mianowicie: dwie osoby poddali procedurze uczenia się ciągu bezsensownych sylab, aż do bezbłędnego powtórzenia ich wszystkich. W odstępie 1, 2, 4 i 8 godzin od zakończenia uczenia się badali poprawność odtworzenia zapamiętanego ciągu. Pomiędzy kolejnymi pomiarami badani albo prowadzili normalną dla siebie aktywność, albo zażywali snu. Można było przypuszczać, że codzienna aktywność, będąca źródłem nowych bodźców, może wiązać się z większym prawdopodobieństwem retroaktywnej interferencji z materiałem zapamiętanym wcześniej. Z kolei w trakcie snu prawdopodobieństwo interferencji powinno być znacznie mniejsze. Z przeprowadzonych badań wynikało, że poziom odtworzenia ciągu był wyższy w warunku snu niż w warunku aktywności, a różnica ta była tym większa, im więcej czasu upłynęło od momentu zapamiętania listy. To pomysłowe badanie, interpretowane na korzyść teorii interferencji, wydaje się mieć jedną zasadniczą wadę. Wykryto, iż w trakcie snu, a zwłaszcza w fazie REM, zachodzi proces konsolidacji śladów pamięciowych (Stickgold, 1998). Konsolidacja może się wtedy odbywać bez większych przeszkód, bowiem inter ferencja ze strony nowych bodźców jest wówczas minimalna. Tego czynnika nie uwzględnili jednak Jenkins i Kallenbach, więc wynik zaobserwowany przez nich w warunkach snu mógł być jednocześnie skutkiem konsolidacji śladów pamięciowych, jak i braku czynników interferujących z wyuczonym materiałem. Wpływ efektu konsolidacji, uzyskany w zadaniu podobnym do zastosowa nego przez Jenkinsa i Kallenbacha, wykazał m.in. Ekstrand (1967). Materiałem w jego badaniach były dwie listy par słów, przy czym pierwsze słowa w parach w przypadku obu list były identyczne, a zmianie podlegały tylko drugie słowa. Zastosowana manipulacja eksperymentalna wywoływała silną interferencję proaktywną. Okazało się jednak, że sen, aplikowany jednej grupie po nauczeniu się całego materiału, powodował podwyższenie poziomu odpamiętania obu list, co mogłoby świadczyć o dobroczynnym wpływie procesu konsolidacji na pamięć. Tak czy inaczej, badanie Jenkinsa i Kallenbacha (1924) nie wydaje się jednoznacznie falsyfikować koncepcji zanikania śladu, przy czym konieczne wydaje się uwzględnienie innych czynników mających wpływ na dynamikę zapominania. Do dyskusji na temat mechanizmów zapominania wrócimy jesz cze przy omawianiu roli wskazówek naprowadzających w odpamiętywaniu (zob. rozdz. 9.4.2). 9.3.4. Reminiscencja Reminiscencja jest zjawiskiem - raczej nieoczekiwanego - wzrostu poziomu odtworzenia zapamiętanego materiału, bez jego dodatkowego uczenia się. Pod tym pojęciem kryją się trzy efekty empiryczne, o być może różnych
9.3. Przechowywanie
401
mechanizmach poznawczych. Efekt reminiscencji jako pierwszy wykrył Ballard (1913), w eksperymencie opisanym w rozdz. 9.3.1. W wypadku każdego z trzech rodzajów materiału użytego w badaniach (prozy, wiersza i bezsensownych sylab), zaobserwowano zjawisko poprawy poziomu odtworzenia w kolejnych próbach (zob. ryc. 9.9). Na przykład już w trzeciej próbie odtworzenia popraw ność była wyższa o 18% w porównaniu do wyniku zaraz po zakończeniu uczenia się (przypomnijmy, że odbywało się ono pod presją czasu). Dopiero wynik ostatniego pomiaru, przeprowadzonego w siódmym dniu, był niższy od poziomu początkowego. Również w wypadku bezsensownych sylab zaobserwowano podobne zjawisko, ale było ono nieco słabsze, a poziom odtworzenia spadł poniżej poziomu początkowego już w czwartym dniu.
przedziały czasowe (w dniach)
Ryc. 9.9. Poprawność odtworzenia materiału sensownego (A i B) oraz bezsensownych sylab (C) jako funkcja czasu przechowywania. Poprawa pamięci w kilku pierwszych dniach po nauczeniu się materiału to reminiscencja (za: Ballard, 1913).
Podobny efekt, ale w innej metodologii, uzyskał Ward (1937). W swoich badaniach użył wyłącznie bezsensownych sylab, których osoby badane uczyły się aż do osiągnięcia kryterium jednego poprawnego odpamiętania. Następnie, po podzieleniu ich na kilka podgrup, testował poziom odpamiętania materiału, w przedziale od 6 s do 20 min. Badani Warda, inaczej jak u Ballarda, przy pominali sobie materiał tylko jeden raz, po upływie wyznaczonego czasu. Mimo tej zmiany, i w tym wypadku ujawnił się efekt reminiscencji. Początkowo, tj. po upływie 6 s od zakończenia uczenia się, poprawność odtworzenia spadła, ale już po 30 s wyraźnie wzrosła. Wszystkie wyniki pomiarów przeprowadzonych do 5 min od zakończenia uczenia się były wyższe od pierwszego pomiaru (po 6 s). W kolejnych pomiarach spadek poprawności był już bardzo wyraźny. Te dwa przypadki reminiscencji uzyskano w inny sposób, chociaż ich mechanizm wydaje się podobny. Wyniki Balladra wyjaśniano wpływem kolej
402
Rozdział 9. Czynności pamięciowe
nych powtórzeń w trakcie odtwarzania materiału, które - przynajmniej po czątkowo - powodowały lepsze jego utrwalenie. Wpływ powtórek wydaje się niewątpliwy, bowiem efekt reminiscencji utrzymywał się kilka dni. U Warda natomiast zanikał już po kilku minutach. Jednak w obu przypadkach czas upły wający od momentu uczenia się materiału pozwalał na zainicjowanie procesu konsolidacji śladów pamięciowych. Ponieważ badani Ballarda wielokrotnie po wtarzali ten sam materiał, to zarówno same powtórki, jak i korzystne rozłożenie ich w czasie, mogło powodować początkowy wzrost poprawności odpamiętania. Jej spadek, rejestrowany w kolejnych pomiarach, zdaje się dobrze ilustrować koncepcje zapominania. Zjawisko reminiscencji wykryto również w pamięci epizodycznej. Dotyczy ono zupełnie innej perspektywy czasowej, mierzonej w skali lat, i zapewne inny, niż w wypadku zjawisk omówionych powyżej, jest jego poznawczy mechanizm. Franklin i Holding (1977) zauważyli, że po ukończeniu 70 roku życia poprawia się pamięć wydarzeń z życia człowieka, które miały miejsce w wieku 10-30 lat (zob. ryc. 9.10). Później okazało się, że reminiscencja może ujawnić się już u 40-latków. Okazało się również, że tego rodzaju reminiscencja dotyczy nie tylko pamięci epizodycznej, ale również semantycznej (Rybash, Monaghan, 1999).
wiek, z którego pochodziły wspomnienia
Ryc. 9.10. Porównanie dostępności informacji pochodzących z różnych okresów życia. Widoczne jest wyraźne wzniesienie w dekadach obejmujących okres od 11 do 40 roku życia. To wzniesienie jest interpretowane jako wskaźnik reminiscencji. Wzniesienie wykresu w części końcowej wskazuje na większą dostępność informacji, które zostały zarejestrowane niedawno (efekt świeżości). Wykres został skonstruowany na podstawie danych zawartych na ryc. 15.1 w pracy Fitzgeralda (1996) obejmujących zagregowane dane analizowane przez Rubina, Wetzlera i Nebesa (1986). Za: Maruszewski, 2005.
Mechanizm tego zjawiska jest dość zagadkowy. Wspólnym elementem licz nych spekulacji na jego temat jest twierdzenie, że zmianie ulega nie tyle sprawność pamięci osób starszych, ale zmiana w ich otoczeniu i sposobie korzystania z pamięci. Zmiana ta wynika z uregulowania trybu życia, który sprawia, że spada liczba przełomowych czy choćby niespodziewanych wydarzeń życiowych. Natomiast w okresie od adolescencji do dorosłości w życiu człowieka wydarzeń takich jest wiele. Skoro ludzie starsi nie mogą ich doświadczać, po prostu starają się je sobie przypomnieć, a im więcej o nich myślą czy mówią, tym łatwiej są one później dostępne. Trudno jednak w pełni ocenić na ile szczegóły przywoływanych
9.4. Odpamiętywanie
403
wspomnień są wiarygodne. Dane na ten temat są niejednoznaczne. Wydaje się, że w wypadku pamięci epizodycznej może występować częste sięganie po rdzeniowe elementy skryptów poznawczych określających typowy przebieg jakiegoś zda rzenia (por. Maruszewski, 2005). Luki w pamięci mogą też być wypełniane na drodze inferencji („właśnie tak musiało być”). Tymi sposobami można „przywołać” wiele szczegółów, ale niekoniecznie prawdziwych. Interesującą hipotezę wyjaśniającą mechanizm reminiscencji sformułował Fitzgerald (1996). Okres życia, którego dotyczy reminiscencja jest, zdaniem autora, istotny dla kształtowania się tożsamości jednostki. Obfituje w zdarzenia dla niej ważne - plany życiowe i wszystko to, co się wiąże z ich realizacją. Ponieważ są to informacje, do których często wracamy, zastanawiając się nad tym, co już zostało osiągnięte, a co jeszcze jest do zrobienia, zostają więc dobrze utrwalone w pamięci. Hipoteza ta zdaje się dobrze wyjaśniać reminiscencję w odniesieniu do danych epizodycznych, ale już nie semantycznych, a przecież reminiscencja obejmuje jedne i drugie. Wiedza semantyczna, niezależnie od momentu życiowego, w którym została nabyta, jest jednakowo ważna. Mało prawdopodobne wydaje się również, aby zmieniało się jej znaczenie, kiedy człowiek przekroczy pięćdziesiątkę. Z zarzutem tym nie radzi sobie zadowala jąco żadna z istniejących koncepcji mechanizmu reminiscencji.
9.4. Odpamiętywanie 9.4.1. Rodzaje odpamiętywania W niektórych omówionych powyżej eksperymentach używano jednocześnie różnych metod badania odpamiętywania. W zależności od zastosowanej metody w tym samym zadaniu uzyskiwano odmienne wyniki. Sugeruje to, iż mechanizmy odpamiętywania, które są wówczas uruchamiane, również są odmienne. Dwa podstawowe rodzaje odpamiętywania to przypominanie, kiedy osoby badane próbują bezpośrednio przywołać zapamiętane treści, i rozpoznawanie, w którym wśród przedstawionego materiału należy wskazać to, co było przedmiotem zapamiętywania. Zasadniczo wyróżnić można trzy najważniejsze metody badania przypominania: odtwarzanie w kolejności, odtwarzanie swobodne i odtwarzanie ukierunkowane. Odtwarzanie (retrieval) to pojęcie nadrzędne, obejmujące zarów no przypominanie (recall), jak też rozpoznawanie (recognition). Dlatego użycie terminu nadrzędnego w założeniach (np. swobodne odtwarzanie) jest dopusz czalne konwencją terminologiczną. Dwie pierwsze metody związane są z ucze niem się różnorodnych list, najczęściej materiału werbalnego. Odtwarzanie w kolejności polega na odpamiętaniu materiału zgodnie z kolejnością prezentacji poszczególnych elementów w fazie zapamiętywania. W odtwarzaniu swobodnym zadanie polega na przypomnieniu sobie materiału w dowolnej kolejności, a w szcze gólności niekoniecznie zgodnej z sekwencją, w jakiej materiał ten był wcześniej prezentowany. Natomiast odtwarzanie ukierunkowane jest specyficzne dla rodza ju materiału, którym są pary bodźców. Mogą to być pary słowo-słowo, np. zdjęciekapelusz, książka-drzewo, albo liczba-słowo, np. 1-kapelusz, 2-drzewo. W teście odtwarzania prezentowane jest pierwsze słowo z pary, a zadanie polega na
404
Rozdział 9. Czynności pam ięciow e
przypomnieniu sobie drugiego z nich. Różnice między metodami rozpoznawania nie są tak zasadnicze, chociaż metoda ta również może przyjmować różne formy. Najprostsza polega na rozpoznaniu, czy prezentowany element był przedmiotem zapamiętywania. Osoba badana podejmuje wówczas prostą decyzję: tak albo nie. W trudniejszych testach rozpoznania manipuluje się liczbą członów alternatywy: im jest ich więcej, tym trudniejsze jest rozpoznanie. Testy rozpoznania mogą mieć postać jednokrotnego albo wielokrotnego wyboru. Te ostatnie wymagają wskazania wszystkich członów alternatywy, które są poprawne, tj. były prezen towane w trakcie uczenia się materiału albo są właściwymi odpowiedziami w teście wiedzy. Zarówno odtwarzanie, jak i rozpoznawanie są miarami pamięci jawnej. Jedynym, choć dyskusyjnym wyjątkiem jest odtwarzanie ukierunkowane, które może aktywizować również pamięć niejawną (por. Schacter, 1996). Inaczej sprawa przedstawia się z badaniem odpamiętania z pamięci niejawnej. Metod tych jest bardzo wiele: Wierzchoń (2004) na podstawie przeglądu literatury wyróżnia ich kilkanaście. Do tej pory wspomnieliśmy o kilku najważniejszych, którymi są: klasyfikacja materiału (np. ciągów symboli jako zgodnych albo niezgodnych w regułami sztucznej gramatyki), uzupełnianie fragmentów (np. utworzenie słowa z liter A_L_GY) oraz poziom wykonania zadań wymagających kontrolowania złożonych systemów dynamicznych (zob. rozdz. 4.3.3 i 9.2.2). Różnice w poziomie poprawności odpamiętania w zależności od zastoso wanej metody są znane od dawna. Wnikliwie badał je Luh (1922) w odniesieniu do materiału, jakim były bezsensowne sylaby. Wykrył, że rozpoznawanie prowadzi nie tylko do wyraźnie lepszych rezultatów niż odtwarzanie, ale również jest bardziej odporne na upływ czasu. Spektakularną zdolność systemu poznawczego do rozpoznawania zapamiętywanego materiału ujawniły badania Standinga, Conezio i Habera (1970). Autorzy użyli w swoich badaniach zestawu 2560 fotografii, prezentując je osobom badanym w tempie 10 s na obrazek. Po upływie 3 dni od momentu uczenia się badani byli w stanie rozpoznać ok. 90% materiału. Noice i Noice (2002) różnymi metodami, w tym testami odtwarzania ukierunkowanego i rozpoznawania, badali odpamiętanie tekstów, wyuczonych w odstępie od 4 miesięcy do 28 lat od momentu badania. Było to możliwe, bowiem osobami badanymi byli zawodowi aktorzy, a tekstami - role teatralne, które kiedyś odgrywali. W obu metodach odpamiętywania osoby badane otrzymały tekst roli, którą w określonym czasie grały, z usuniętymi poszczegól nymi słowami. Zadanie osób badanych polegało albo na próbie uzupełnienia brakujących słów (odtwarzanie ukierunkowane), albo na wyborze słów spośród czterech członów alternatywy, z których każdy logicznie pasował do brakującego miejsca, lecz tylko jeden pochodził z oryginalnego tekstu. Wyniki rozpoznania okazały się zdecydowanie bardziej odporne na upływ czasu, niż wyniki przypominania (zob. ryc. 9.11). Wydaje się, że podstawową różnicą między rozpoznawaniem a odtwarza niem jest dostępność wskazówek wydobycia. Odtwarzanie wymaga odwołania się do wskazówek wewnętrznych, które muszą zostać samodzielnie przywołane. Rozpoznanie opiera się na wskazówkach zewnętrznych, obecnych w prezen towanym materiale. Jeśli materiał testowy jest identyczny z zapamiętanym materiałem, obecne są w nim wszystkie możliwe zewnętrzne wskazówki wy dobycia. Zapamiętanie tylko jednej z nich będzie w tej sytuacji wystarczające do
9.4. O dpam iętyw anie
405
rozpoznawanie odtwarzanie
Ryc. 9.11. Poziom wykonania testów odtwarzania i rozpoznania złożonego tekstu w zależności od czasu, jaki upłynął od momentu uczenia się. Badanymi byli zawodowi aktorzy, a tekstami role, które kiedyś grali. Na podstawie wyników Noice i Noice (2002).
prawidłowego rozpoznania, a może okazać się zupełnie nieprzydatne do przypomnienia. Również rozpoznanie w warunkach zmienionej prezentacji oryginalnego materiału z tego powodu będzie mniej skuteczne, bowiem niekiedy pojedyncza wskazówka będzie właśnie tą, która jest nieobecna w materiale testowym. Powyższe predykcje potwierdzają cytowane już badania Standinga i współpracowników (1970), w których rozpoznanie fotografii, będących lustrza nym odbiciem oryginałów, było mniej efektywne, niż rozpoznanie niezmie nionych fotografii. Odbicie wydaje się redukować liczbę wskazówek przydat nych w trakcie rozpoznawania. Większość propozycji teoretycznych, wyjaśniających różnice między roz poznawaniem a odtwarzaniem, ujmuje odtwarzanie w formie procesu dwufa zowego, podczas gdy rozpoznawanie składa się tylko z jednej fazy (Lotus, Loftus, 1976; Watkins, Gardiner, 1979). Pierwsza faza odtwarzania polega na przeszukaniu pamięci, które - jeśli jest efektywne - prowadzi do wydobycia informacji. Przeszukiwanie odbywa się na podstawie posiadanych wskazówek wydobycia. Drugą fazą odtwarzania jest rozpoznanie, czy odnaleziona infor macja jest tą, która - w przypadku eksperymentu - była wcześniej prezen towana. Jak widać różnica między odtwarzaniem i rozpoznawaniem sprowadza się do pierwszej fazy, która nie występuje w wypadku rozpoznawania. Inną propozycję wysunął Tulving (1976b, 1983). Według autora rozpozna wanie i odtwarzanie są procesami jednofazowymi. Co więcej, procesy te są w obu przypadkach podobne i polegają na zintegrowaniu informacji zawartych we wskazówkach z tym, co stanowi zapis pamięciowy. Różnica między roz poznawaniem a odtwarzaniem wynika z warunków inicjowania obu procesów odpamiętywania. Rozpoznawanie inicjowane jest dzięki wskazówkom, których w rozpoznawanym bodźcu może być więcej niż właściwości zapisu pamięcio wego. Dzięki temu rozpoznawanie jest zazwyczaj szybsze i bardziej poprawne niż odtwarzanie. Z kolei odtwarzanie, nawet jeśli jest ukierunkowane, inicjo wane jest na podstawie niewielkiej liczby wskazówek. Jest więc zazwyczaj wol niejsze i bardziej zawodne niż rozpoznawanie.
406
Rozdział 9. Czynności pamięciowe
Rozstrzygnięcie, który sposób interpretacji różnic między metodami odpamiętywania jest lepszy nie jest proste. Oba powyżej opisane modele zakładają pewną korespondencję między rozpoznawaniem i odtwarzaniem, co oznacza, że część wariancji wyników uzyskanych z pomocą obu metod powinna być wspólna, tyle, że z różnych powodów. W modelu dwufazowym - ponieważ rozpoznawanie jest integralną fazą odtwarzania. W modelu jednofazowym - bowiem oba procesy odwołują się do podobnych mechanizmów. Oba modele przewidują również, że czas reakcji - choć zdecydowanie rzadziej analizowany w badaniach tego typu powinien wykazywać wyraźne zróżnicowanie w zależności od zastosowanej metody odpamiętania. Ponownie jednak zupełnie inne byłyby tego przyczyny: albo z powodu dodatkowej fazy w modelu dwufazowym, albo z powodu mniejszej liczby wskazówek wydobycia w modelu jednofazowym. Sprzeczne z modelem dwufazowym byłyby jednak wyniki, w których określona manipulacja prowa dziłaby do poprawy rozpoznawania, a jednocześnie pogorszenia odtwarzania. Dane empiryczne wskazują na ścisły związek rozpoznawania i odtwarzania, które w mniej więcej tej samej pozycji ulegają pogorszeniu pod wpływem skracania czasu przeznaczonego na uczenie się (Ratclif, Murdock, 1976), zwiększania wielkości materiału (Roberts, 1972), wydłużania czasu między uczeniem się a testem oraz wydłużania dzielących je zadań dystrakcyjnych (Shepard, 1976). Jednak przeciwne rezultaty nie są wcale rzadsze. Użycie słów o wysokiej frekwencji występowania w języku powoduje wzrost poprawności odtwarzania, a jednocześnie spadek poprawności rozpoznawania (Deese, 1960; Hall, 1979). Zjawisko to nazwano wobec tego paradoksem frekwencji stów (Kintsch, 1970). Ponadto lepsze utrwalenie niektórych elementów listy, przez wprowadzenie dodatkowego czasu na uczenie się ich albo dodatkowych powtó rzeń, pogarsza swobodne odtworzenie pozostałych elementów, a nie wpływa na odtwarzanie ukierunkowane i nawet pomaga w rozpoznawaniu (Ratcliff, Clark, Shiffrin, 1990; Shiffrin, Ratclif, Clark, 1990). Okazało się również, że nastawienie osób badanych na określony typ odpamiętywania poprawia wyniki, kiedy rzeczywistość jest zgodna z zapowiedzią, albo pogarsza, jeśli jest inaczej (Tversky, 1973). Co ciekawe, wzbudzone instrukcją nastawienie na przecho wywanie określonej informacji wpływa pozytywnie na jej późniejsze rozpozna nie (Glenberg, Adams, 1978), a nie zmienia wyników odpamiętywania (Dark, Loftus, 1978). Bardziej elastyczny model jednofazowy Tulvina wydaje się trafniejszy, chociaż nie tłumaczy, dlaczego niekiedy wskaźniki rozpoznania i odtwarzania idą w parze, a innym razem zupełnie się rozchodzą. Okazuje się, że i w modelu dwufazowym można wyjaśnić pewne rozbieżności między wskaźnikami rozpoznania i odtwarzania. Na przykład wspomniany paradoks frekwencji słów ma pewne wyjaśnienie, które pozwala obronić teorię dwufazowego odtwarzania. Wyjaśnienie to odwołuje się do większego bogactwa związków semantycznych, w jakie wchodzą słowa częściej używane, co sprawia, że są bardziej dostępne odtwarzaniu niż słowa rzadko występujące. Jednak w teście rozpoznawania słowa te, ze względu na ich wysoką dostępność, mogą być łatwiej pomylone ze słowami, które rzeczywiście były prezentowane. Chodzi o to, że w sieci seman tycznej trudno rozróżnić między źródłami pobudzenia wynikającymi z łatwiej szej dostępności często używanych słów, a dostępności związanej z prezentacją eksperymentalną.
9.4. Odpamiętywanie
407
9.4.2. Rola w skazów ek naprowadzających i kontekstu Rola wskazówek naprowadzających była już wielokrotnie omawiana. Szcze gólną wagę przypisuje im Tulving, choćby w koncepcji specyficzności kodo wania (Tulving, Thomson, 1973), czy omawianej powyżej koncepcji odpamiętywania (Tulving, 1983). Badania Tulvinga i Thomsona (1973), dotyczące efektu specyficzności kodowania (zob. rozdz. 9.2.1), wskazywały na wyraźne powiązanie warunków zapamiętywania i odpamiętywania. Autorzy dostarczyli spektakularnych danych wskazujących na większy wpływ na odpamiętanie zgodności wskazówek wydobycia z warunkami kodowania informacji, niż głębokości jej przetworze nia. Do omówienia tych wyników dodajmy, że stwierdzony przez badaczy efekt większej poprawności odpamiętywania niż rozpoznawania jest znaczącym kontrargumentem przeciw teorii dwufazowej Loftus. Trudno bowiem wyjaśnić, jak w tym samym zadaniu proces złożony z przeszukiwania i rozpoznawania może dać gorsze rezultaty (mniejsza poprawność) niż jeden z jego składników, tj. rozpoznawanie. Kluczowych dowodów na rolę wskazówek naprowadzających dostarczyli Tulving i Psotka (1971), badając proces zapominania. Główny cel tych badań polegał na próbie weryfikacji różnych predykcji modeli wyjaśniających to zjawisko na podstawie mechanizmu interferencji retroaktywnej albo mecha nizmu utraty wskazówek dostępu. Różnym grupom osób badanych prezento wano od jednej do sześciu list słów. Na każdej liście znajdowały się 24 słowa, pochodzące z sześciu kategorii. Po zakończeniu ekspozycji każdej listy następował test swobodnego odtwarzania (pomiar początkowy). Po pokazaniu wszystkich list przeprowadzono jeszcze jeden test odtwarzania, który dotyczył całości przedstawionego materiału. Test miał postać albo swobodnego odtwa rzania, albo odtwarzania ukierunkowanego. W drugim przypadku osobom badanym pokazano nazwy wszystkich kategorii, z których pochodziły słowa. Wyniki testu swobodnego odtwarzania wskazywały na silną interferencję retroaktywną: prawdopodobieństwo poprawnego otworzenia było niższe w przy padku słów znajdujących się na wcześniej pokazywanych listach. Jednak w odtwarzaniu ukierunkowanym nie stwierdzono interferencji retroaktywnej (zob. ryc. 9.12). Był to, z jednej strony, mocny argument na korzyść teorii utraty wskazówek dostępu, a z drugiej - na korzyść kluczowej ich roli w odpamiętywaniu. Pojawienie się nazw kategorii, będących wskazówkami wydobycia, wyeliminowało interferencję, znakomicie podnosząc ogólną poprawność od pamiętywania. Wskazówki dostępu mogą mieć nie tylko zewnętrzny, ale również we wnętrzny charakter. Zdecydowana część wskazówek wykorzystywanych w mnemotechnikach jest właśnie tego typu: nowy materiał należy odnieść do nabytej wcześniej wiedzy, która jest źródłem wskazówek wydobycia (zob. rozdz. 9.2.4). Innego rodzaju wskazówką naprowadzającą przy odpamiętywaniu może być nastrój. Ucros (1989), dokonując przeglądu różnych badań, stwierdził trzy ro dzaje wpływu nastroju na odpamiętywanie. Po pierwsze, poprawność odpamię tania jest tym wyższa, im większa jest zgodność nastroju w momencie kodo wania i odtwarzania (np. Bower, 1981). Efekt kontekstu wydaje się zatem obej mować nie tylko wskazówki zewnętrzne, ale również wewnętrzne, w tym emo
408
Rozdział 9. Czynności pamięciowe
cjonalne. Po drugie, pozytywny nastrój na ogół sprzyja zapamiętywaniu, przy czym - i to po trzecie - efekt ten jest silniejszy, kiedy materiał pamięciowy ma bardziej osobisty charakter (np. Yuille, Cuttshalla, 1986). Chodzi wówczas ra czej o dane epizodyczne lub autobiograficzne niż o „neutralną” wiedzę ogólną. 5 'O V) sz o>. c 0g3>. W E co Q. “O O 0) 'c 5co Q. O O. L_
80 70 60 50
-
40
jo
ccoS 30 T3
O-
-a
□______ -O■
|
°
c
■- o - - uczenie się (pomiar początkowy)
20
—• — odtwarzanie ukierunkowane
"D CL)
^
odtwarzanie swobodne
10
0
1
2
3
4
5
6
kolejno pokazywane listy stów
Ryc. 9.12. Odsetek poprawnie odtworzonych słów w zależności od liczby zastosowanych list i rodzaju testu odtwarzania. Metoda odtwarzania ukierunkowanego jest niepodatna na interferencję retroaktywną, wynikającą z uczenia się kolejnych list, podczas gdy swobodne odtwarzanie ujawnia taką podatność (za: Tulving, Psotka, 1971).
Ważnym źródłem wskazówek wydobycia wydaje się być również środowi skowy kontekst zapamiętywania i odtwarzania. Z wcześniej dyskutowanych rozważań wynika, że zgodność między kontekstem zapamiętywania i odpamiętywania istotnie sprzyja skutecznemu wydobywaniu informacji z pamięci. Baddeley (1982), na podstawie badań poświęconych efektowi kontekstu (Godden, Baddeley, 1975, 1980), zaproponował rozróżnienie między dwoma rodzajami wpływów kontekstualnych na pamięć. Kontekst naturalny (intrinsic context) charakteryzuje się naturalnym i bezpośrednim wpływem na znaczenie zapamiętanej informacji, np. drzwi albo gęsi stanowią faktyczny kontekst dla słowa „klucz”. Klasa lekcyjna, jako miejsce uczenia się, np. o semantyce dwuznacznych słów, stanowi kontekst sztuczny (extrinsic context), który nie jest bezpośrednio związany z właściwym znaczeniem słowa „klucz” czy ja kiejkolwiek innej wiedzy. Baddely (1982) zakłada jednak, że odtworzenie pod lega wpływom kontekstualnym jednego i drugiego rodzaju, podczas gdy roz poznawanie - tylko kontekstu naturalnego. W ten sposób autor wyjaśnia brak efektu kontekstu w badaniach nad płetwonurkami, kiedy zastosowano test roz poznawania (Baddeley, 1980).
9.5. Zawodność pamięci
409
9.5. Zawodność pamięci O zawodności pamięci w pewnym sensie traktuje caiy niniejszy rozdział, bo wiem mowa w nim głównie o rozbieżnościach pomiędzy tym, co podlega zapa miętywaniu, a tym co zostaje później odpamiętane. Badania nad pamięcią wskazują na znaczącą rozbieżność między ilością informacji, jaka podlega próbom zapamiętywania, a efektami odpamiętywania. Natomiast w mniejszym stopniu koncentrowano się na błędach pamięciowych, nie polegających na czysto ilościowej utracie informacji, lecz na różnych postaciach zniekształceń dotyczących przywoływanych treści. O zawodności pamięci pisze się zwykle w kontekście pamięci semantycznej, epizodycznej i autobiograficznej. Właściwie nie wspomina się o tym problemie w odniesieniu do pamięci proceduralnej. Klasyfikacje błędów pamięciowych są bardzo obszerne (por. Hyman, 1999; Niedźwieńska, 2004; Roediger, McDer mott, Schacter, 1999), lecz w tym miejscu przedstawimy tylko kilka naj ważniejszych.
9.5.1. Pamięć naocznych świadków Ustalenie warunków, w których możliwe jest uzyskanie najwyższej zgodności przywołań pamięciowych z rzeczywistym przebiegiem zdarzeń, jest celem psychologii zeznań świadków. Chodzi przede wszystkim o świadków wszelkiego rodzaju przestępstw, którzy są niezastąpionym źródłem informacji dla instytucji zajmujących się ich wykrywaniem i wyjaśnianiem. Niekiedy są to sytuacje, w których wiarygodność przywołań pamięciowych może decydować o życiu człowieka. Bodaj najsłynniejszą badaczką psychologii zeznań świadków jest Elizabeth Loftus. W ciągu kilkudziesięciu lat badań odkryła wiele czynników zaburzają cych wiarygodność ich zeznań, z których istotna część ma charakter pamię ciowy. Pierwszy czynnik nie dotyczy bezpośrednio funkcjonowania pamięci, choć ma na pamięć olbrzymi wpływ. Chodzi o stan emocjonalny, w którym znajdują się świadkowie. Szczególnym zdarzeniom, jakimi niewątpliwie są przestępstwa (np. napad, wypadek, zabójstwo), towarzyszą zazwyczaj bardzo silne emocje indukowane u świadków. Powodują one wybiórcze zapamiętywa nie zdarzeń: pewne elementy pamiętane są doskonale (tzw. efekt lampy błys kowej), a pozostałe bardzo słabo. Loftus i Burns (1982) dowiedli tego, pre zentując osobom badanym dwie sfilmowane wersje tego samego przestępstwa. Pod koniec jednego z nich pojawiało się bardzo dramatyczne zdarzenie, którego nie będziemy tu szczegółowo opisywać. W każdym razie wywoływało ono w widzu silne emocje negatywne. Okazało się, że w wyniku tej procedury za pamiętanie szczegółów przestępstwa, prezentowanego w początkowej części filmu, zostało poważnie zaburzone. Drugi czynnik wpływający na wiarygodność zeznań wiąże się z tzw. pa mięcią źródła informacji. Rozróżnienie na pamięć faktów i pamięć źródła, wprowadzone przez Davidsona i Glisky (2002), dotyczy całej pamięci dekla ratywnej . Pamięć faktów to dane przechowywane w pamięci semantycznej bądź
410
Rozdział 9. Czynności pamięciowe
epizodycznej. Pamięć źródła zawiera z kolei kontekst nabywania informacji, znacznie ważniejszy w wypadku epizodów niż wiedzy ogólnej. Stwierdzono jednak, że pamięć źródła jest dość słaba, szczególnie u osób w podeszłym wieku (por. Maruszewski, 2005), co okazuje się mieć poważne konsekwencje dla psychologii zeznań świadków. Świadek może np. mylić to, co widział, z tym, co sugerowano mu, że mógł widzieć. Na długo przed sformułowaniem koncepcji pamięci faktów i źródła, Loftus odkryła, że stosunkowo łatwo można doprowadzić do zintegrowania faktów zaobserwowanych w trakcie zdarzenia, którego ktoś był świadkiem, z faktami wywnioskowanymi z późniejszego opracowania zdarzenia. W badaniach Loftus i Palmer (1974) pokazano badanym film przedstawiający wypadek drogowy. Osoby badane relacjonowały przebieg wypadku, a następnie zadawano im pytania uszczegóławiające w jednej z dwóch postaci: (1) „Jaka była prędkość w momencie roztrzaskania się (smash) samochodów?”; albo (2) „Jaka była prędkość w momencie zderzenia się (hit) samochodów?”. W grupie kontrolnej nie zadawano pytania o prędkość samochodów. Następnie poproszono bada nych o oszacowanie prędkości samochodów. Grupa (1) szacowała tę prędkość średnio na 66 km/godz., podczas gdy grupa (2) na 55 km/godz. Po tygodniu zapytano wszystkie trzy grupy, czy na miejscu wypadku znajdowało się rozbite szkło. Twierdząco odpowiedziało 32% osób badanych z grupy (1), 14% z gru py (2) i 12% z grupy kontrolnej. W rzeczywistości na miejscu wypadku nie było żadnego rozbitego szkła. Wynik ten autorki wyjaśniły znaczeniem użytego w trakcie symulowanego przesłuchania czasownika „roztrzaskać się”. Zawarta w nim sugestia, stając się częścią pamięci zdarzenia, częściej skłaniała do wy ciągania fałszywych wniosków o obecności szkła na miejscu wypadku. Zjawisko modyfikacji przywołań pamięciowych, wywołanych błędną informacją wprowa dzoną do pamięci, nazwano efektem dezinformacji. Wydaje się, że mechanizmem efektu dezinformacji, stwierdzonym przez Loftus i Palmer (1974), była utrata informacji dotyczącej źródeł informacji (błąd monitorowania źródła). Osoby badane nie były w stanie oddzielić wspomnień będących zapisem pochodzącym z obserwacji zdarzenia od informacji zawartych w pytaniach eksperymentatora. Wydaje się to naturalne, bowiem źródło do datkowych informacji, czyli osobę eksperymentatora, uznano za kompetentne i nie było powodu, aby tę wiarygodność podważać. W badaniach potwierdzono, że im wyższa wiarygodność źródła, tym silniejszy efekt dezinformacji (Smith, Ellsworth, 1987). Zgodnie z koncepcją Lindsaya i Johnsona (1989), błąd moni torowania źródła informacji wynika w takich sytuacjach ze stosowania słabych kryteriów decyzyjnych: znajomość informacji, bez względu na jej źródło, wystarcza do uznania jej za rzeczywistą. Wyniki badań Zaragozy (Zaragoza, Lane, 1994; Zaragoza, Mitchell, 1996) wskazują ponadto, że badani są prze konani, iż widzieli dodatkowe elementy, wprowadzone do ich pamięci już po prezentacji filmu lub historii obrazkowej, nawet jeśli tylko o nich czytali. Zaragoza i Mitchell tłumaczą to zjawisko włączaniem błędnych informacji do wyobrażeniowych rekonstrukcji zdarzeń. Im częściej pojawia się tego typu informacja (np. trzykrotnie czytają o dodatkowym elemencie), tym większa jej wyrazistość i pozorne podobieństwo do oryginalnego zapisu zdarzenia. Okazało się, że istnieje wyraźna różnica między podatnością na efekt dez informacji, w zależności od tego, czy zdarzenie miało centralne czy też pery-
9.5. Zawodność pamięci
411
feryczne znaczenie dla zapamiętywanej sytuacji. Loftus (1979) wykazała, że jeśli zdarzenie ma charakter centralny, to jego detale są dobrze pamiętane i niepodat ne na wpływ manipulacji eksperymentalnych. Badani przez Loftus oglądali kradzież portfela, a następnie (w wywiadzie) pytano ich o różne szczegóły zajścia. Kiedy w jednym z pytań próbowano zasugerować badanym inny niż w rzeczywistości kolor portfela, byli na tę sugestię odporni. Kiedy jednak sugestia nie dotyczyła centralnego zdarzenia, na różne sposoby można było wpłynąć na pamięć osób badanych. Ilustruje to omówiony przykład ekspery mentu Loftus i Palmer (1974). W innym badaniu Loftus (1975) pokazała osobom badanym film przedstawiający wypadek samochodowy. Następnie zadawała im pytania, celowo wprowadzając do nich obiekty, których nie było w filmie. Obiekty te były peryferyczne z punktu widzenia przebiegu wypadku. Na przykład pytano badanych z jaką prędkością przejeżdżał samochód obok stodoły, choć w rzeczywistości żadnej stodoły w filmie nie było. Po tygodniu zapytano badanych, czy widzieli w filmie stodołę; 17% z nich stwierdziło, że ją widziało, podczas gdy w grupie kontrolnej, w której nie aplikowano tego typu sugestii, odsetek ten wyniósł 3%. I w tym wypadku osoby badane nie były w stanie oddzielić różnych źródeł informacji: tego co rzeczywiście zapamiętali, od tego, co zostało im zasugerowane w pytaniu zaraz po prezentacji filmu. Opracowano specjalne techniki przeprowadzania wywiadów ze świadkami, okazało się jednak, że problemem jest sam wywiad. Schooler i Engstler-Schooler (1990) wykazali, że wywiad, przeprowadzony po obejrzeniu filmu o przestęp stwie, pogorszył późniejsze rozpoznanie twarzy przestępców, ukazane w filmie. Autorzy, wyjaśniając to zjawisko, odwołali się do efektu werbalnego zama zywania zapisów pamięci wzrokowej (verbal overshadowing of visual memo ries), którego podłożem byłaby interferencja retroaktywna. Materiał werbalny, pojawiający się w trakcie wywiadu, jest „nadpisywany” na nabytym wcześniej materiale wzrokowym. Wykazano jednak, że oryginalny zapis zdarzenia jest możliwy do odróżnienia od informacji błędnych. Dokonano tego stosując testy wiedzy utajonej (Dodson, Reisberg, 1991), a także nowoczesne techniki neuroobrazowania. Prawdziwe i błędne informacje angażowały częściowo odrębne struktury mózgowe. Prawdziwe wspomnienia silniej angażowały obszary zwią zane z pamięcią wzrokową, co jest zrozumiałe, bo badani rzeczywiście widzieli dane zdarzenie, podczas gdy fałszywe wspomnienie wizualizowane było dzięki wyobraźni. Problem jednak w tym, że świadkowie nie są w stanie świadomie oddzielić jednego od drugiego. Interesujące wyjaśnienie efektu dezinformacji zaproponowali Johnson, Hashtroudi i Lindsay (1993). Pytania zadawane np. w trakcie wywiadu akty wują ślady pamięciowe informacji związanej z określonym zdarzeniem. Akty wacja dotyczy zapisów pochodzących z różnych źródeł. Jeśli jednostka uświa damia sobie, jakie to są źródła, może na tej podstawie dokonać ich rozróżnienia. Może jednak dochodzić do błędnego przypisania źródeł, kiedy informacje z dwóch lub więcej źródeł są do siebie podobne. Kiedy w trakcie wywiadu, manipulując treścią pytań, włącza się dodatkowe informacje, osoby badane błędnie przypisują je oryginalnemu źródłu, czyli samemu zdarzeniu. Dlatego w późniejszych testach są one już nieodróżnialne, bowiem stanowią część pamięci danego zdarzenia. Allen i Lindsay (1998) uzyskali dane, które mogłyby przemawiać na korzyść powyższej koncepcji. Zaprezentowali dwie zupełnie
412
Rozdział 9. Czynności pamięciowe
różne historie, dziejące się w różnych miejscach, w których brały udział różne postaci. Badani wiedzieli więc, że historie te nie mają ze sobą żadnego związku. Jednak pewne detale były w obu historiach bardzo podobne, np. puszka Coca-Coli albo Pepsi. Okazało się to źródłem błędów: elementy z drugiego opo wiadania lokowane były w pierwszym. Wynik taki nie pojawił się jednak od razu po prezentacji obu historii, a dopiero po dwóch dniach. Na ciekawą właściwość pamięci zdarzeń, istotną w zeznaniach świadków, zwrócili uwagę Perfect i Hollins (1969). Mianowicie, o ile większość ludzi poprawnie ocenia sprawność swojej pamięci semantycznej, o tyle zupełnie nie potrafi ocenić swojej pamięci zdarzeń. Częściej jesteśmy skłonni powątpiewać w swoją wiedzę semantyczną. Trafniej też oceniamy jej braki. Podobnych wątpliwości nie mamy zwykle w odniesieniu do pamięci zdarzeń. Możemy cze goś nie pamiętać, ale jeśli już coś pamiętamy, to jesteśmy przekonani o słusz ności naszej wersji zdarzeń. Autorzy uważają więc, że ludzie mają tendencję do przeceniania walorów pamięci zdarzeń.
9 .5 .2 . Fałszywe wspom nienia Wiele z przytoczonych powyżej badań wskazuje na pewną łatwość, z jaką włą czamy błędne informacje do pamięciowych zapisów zdarzeń. Do tej pory mó wiliśmy jednak wyłączne o pamięci epizodycznej. Zjawisko to rozciąga się jed nak na inne rodzaje pamięci i różne sytuacje. W odniesieniu do pamięci seman tycznej wykrył je Deese (1959b), stosując interesujący paradygmat badawczy (zob. paradygmat 9.1). Obecnie funkcjonuje kilka wyjaśnień tego zjawiska. Pierwsze odwołuje się do mechanizmu rozprzestrzeniającej się aktywacji, jako podłoża „normalnego” funkcjonowania pamięci (Collins, Loftus, 1975). Zakłada się, że pojęcie kryParadygmat 9.1
Pamięć fałszywych wspomnień
Paradygmat badania pamięci fałszywych wspomnień (false memory) pochodzi od Deese’a (1959b), a odkryty został ponownie w latach 90. ubiegłego wieku przez Roedigera i McDermotta (1995). Typowe zadanie w badaniach Deese’a polega na prezentacji listy, zawierającej słowa powiązane znaczeniowo z pewnym pojęciem krytycznym. To ostatnie nie jest jednak obecne na liście. Na przykład, jeśli lista zawierała słowa: bed (łóżko), rest (odpoczynek, odpoczywać), awake (budzić się), tired (zmęczony), dream (sen, marzenie senne), wake (budzić się), snooze (drzemka, drzemać), blanket (koc), dozę (drzemać), slumber (sen), snore (chra panie), nap (drzemka), peace (spokój), yawn (ziewać), drowsy (senny), to pojęciem krytycznym, niewątpliwie powiązanym z całą listą, było sleep (sen, spać). Po zapoznaniu się z listą, osoby badane wykonywały test swobodnego odtwarzania. Liczba intruzji, czyli przypadków błędnego włączenia słowa krytycznego do wyników testu swobodnego odtwarzania, wahała się od 0% do 44% w zależności od stopnia jego powiązania z wyrazami z listy. Im większe było powiązanie listy ze słowem krytycznym, tym większe prawdopodobieństwo intruzji.
9.5. Zawodność pam ięci
413
tyczne, jeśli jest silnie związane znaczeniowo z wyrazami z listy, to jest po budzane w takim samym stopniu, jak stówa znajdujące się na owej liście. Dzieje się tak dzięki wielu połączeniom, jakimi pojęcia („węzły”) z listy powiązane są ze słowem krytycznym. Aktywacja pochodząca od tych węzłów, powoduje jego silne wzbudzenie. W tej sytuacji trudno rozróżnić między słowami rzeczywiście eksponowanymi na liście a słowem krytycznym (Balota i in., 1999). Inny mechanizm powstawania fałszywych zapisów pamięciowych odwołuje się do spadku efektywności kontroli uwagowej albo monitoringu, które są odpowie dzialne za różnicowanie źródeł aktywacji (por. Roediger, McDermott, 1995, 2000). Mechanizm ten byłby więc podobny do monitorowania źródła informacji w pamięci epizodycznej (zob. rozdz. 9.5.1). Loftus badała tworzenie fałszywych wspomnień autobiograficznych, które są poważnym problemem w ustaleniu faktów z odległej przeszłości, np. dzie ciństwa człowieka. Loftus i Pickrell (1995) prosiły krewnych osób badanych o opisanie wydarzeń z dzieciństwa tych ostatnich. Na podstawie tych opisów konstruowano wywiad, w którym osoba badana miała podać szczegóły tych wydarzeń. Oprócz prawdziwych historii, stworzono również opisy „zdarzeń” zmyślonych, które były jednak w pewien sposób osadzone w dzieciństwie osób badanych. Nie wprowadzano faktów ewidentnie fałszywych w świetle obecnej wiedzy osób badanych, np. podając nieprawdziwe miejsce ich zamieszkania albo zmieniając imiona dobrze znanych im osób. W wywiadzie podawano jedynie wskazówki, pozwalające na przypomnienie sobie szczegółów zdarzeń, np. szczególne miejsce zdarzenia albo jego nieszablonowy charakter. Okazało się, że osoby badane przypomniały sobie średnio 68% prawdziwych zdarzeń i 25% zdarzeń fałszywych. Według Hymana (1999), implementacja fałszywych wspomnień jest możliwa, jeśli prawdopodobne jest, że nieprawdziwe zdarzenie mogło mieć miejsce. Prawdopodobieństwo to rośnie, jeśli zdarzenie jest dopa sowane do wiedzy i schematów poznawczych osoby badanej. Autor uważa również, że fałszywe wspomnienia mają swoje źródło w błędnym monitorowa niu źródła informacji. Obok wspomnianego już braku ostrych kryteriów decyzyjnych, które nakazują różnicowanie informacji pochodzących z różnych źródeł, autor wyróżnił jeszcze trzy czynniki, które sprzyjają tego rodzaju błę dom. Są to: bogactwo szczegółów fałszywego zdarzenia, wielokrotne rekon struowanie jego przebiegu i większy odstęp czasu od wprowadzenia fałszywej informacji do jej wydobycia. Loftus (1996) wykazała również, że wpływ na wprowadzanie fałszywych wspomnień do pamięci ma szczególnego rodzaju nastawienie. Autorka po prosiła osoby badane o wypełnienie testu, który rzekomo ujawnił ich wysokie zdolności percepcyjno-poznawcze (w rzeczywistości był to element manipulacji eksperymentalnej). Następnie wyjaśniono badanym, że tego typu zdolności związane są ze stymulacją percepcyjną, jakiej podlegają dzieci, które miały zawieszone nad głową w łóżeczku poruszające się przedmioty, np. grzechotki. W dalszej części badania zastosowano technikę odzyskiwania wspomnień wczesnodziecięcych. Zastosowano regresję albo do pierwszych dni życia, albo do początkowego okresu uczęszczania do przedszkola, po czym poproszono badanych o opisane tego, co sobie przypominają. Okazało się, że ok. 60% osób badanych przypomniało sobie jakieś przedmioty wiszące w łóżeczku nad ich głowami, a 25% - pamiętało krążki wiszące nad ich głowami w przedszkolu.
414
Rozdział 9. Czynności pamięciowe
9.5 .3 . Amnezja Amnezja jest czasowym albo trwałym zaburzeniem jednego bądź wielu systemów pamięciowych. Może być ona skutkiem urazu głowy, bądź innego uszkodzenia mózgu wywołanego, np. udarem, infekcją, działaniem toksyn lub po prostu efektem starzenia się. Podstawowe objawy amnezji sprowadzają się do trudności w zapamiętywaniu i odpamiętywaniu informacji. W zależności od chronologii zdarzeń objętych amnezją wyróżnia się dwa jej typy: amnezję następczą i wstecz ną. Pierwsza dotyczy ograniczenia albo utraty zdolności zapamiętywania nowych danych, a druga - odpamiętywania informacji, które zostały nabyte przed wy stąpieniem czynnika powodującego amnezję. Najsłynniejszy pacjent amnestyczny H.M. (wspominaliśmy o nim w rozdz. 9.3.1), w wyniku operacji neurochirurgicznej utracił możliwość nabywania nowej wiedzy deklaratywnej. Wiedza nabyta przed operacją, zarówno procedu ralna, jak i deklaratywna, pozostała nienaruszona, podobnie jak możliwość nabywania nowej wiedzy proceduralnej. Jest to więc przypadek amnezji następ czej. Uszkodzenia mózgu wywołane operacją objęły kompleks ciała migdałowa tego i część hipokampa - struktur wiązanych z utrwalaniem nowych śladów pamięciowych o charakterze pojęciowym. Nowsze badania prowadzą do iden tyfikacji szeregu struktur mózgowych, lokowanych w korze przedczołowej i międzymózgowiu, które pełnią istotną rolę w różnych procesach pamięciowych (zob. Kowalska, 2000). Mechanizm amnezji następczej wiąże się z zaburzeniem procesu konsoli dacji śladów pamięciowych. Baddeley i Warrington (1970) badając krzywe pozycyjne u pacjentów amnestycznych wykryli, że zaburzeniu podlega wy łącznie efekt pierwszeństwa (zob. ryc. 9.13). Badani zapamiętali ok. 20% mniej słów z początku listy niż osoby z grupy kontrolnej. Jeszcze większa różnica dotyczyła środka listy i wyniosła nawet 50%, przy czym poziom odtworzenia słów spadał w grupie osób z amnezją niemal do zera. Natomiast efekt świeżości nie ulegał żadnemu zaburzeniu. Baddeley (1998) opisuje różne przypadki amnezji, w tym kilka przykładów krótkotrwałej amnezji wywołanej wstrząśnieniem, mózgu u zawodników grających w football amerykański. Co ciekawe, zaraz po doznaniu urazu pamiętali oni co się stało, ale po kilku minutach nie byli w stanie przypomnieć sobie okoliczności zdarzenia. Wydaje się, że odpamiętanie zdarzenia zaraz po urazie mogło odbyć się bezpośrednio z pamięci krótkotrwałej. Jednak zaburzenie procesu konsolidacji wywołane wstrząsem powodowało, że ślad tego zdarzenia został bezpowrotnie utracony wraz z za nikiem informacji z STM. Amnezja wsteczna pojawia się głównie w przypadkach uszkodzenia pła tów skroniowych, hipokampa i płatów czołowych. Jej poznawcze podłoże do tyczy trudności w transferze informacji z pamięci długo- do krótkotrwałej, co jest niezbędne w werbalizacji wiedzy deklaratywnej. Interesującym zjawis kiem dotyczącym amnezji wstecznej jest skracanie okresu obejmującego am nezję wraz z upływem czasu od momentu doznania urazu. Baddeley (1998) opisuje przypadek ogrodnika, który doznał urazu głowy w wyniku wypadku motocyklowego. Początkowo okres amnezji obejmował ponad 10 lat, ale po upływie 2 tygodni od wypadku okres ten zmniejszył się do ok. 2 lat. Po krótkiej rekonwalescencji ogrodnik wrócił do swoich obowiązków zawodowych i choć
9.5. Zawodność pam ięci
415
pacjenci z amnezją
grupa kontrolna
pierwsze stowo
ostatnie stowo kolejność prezentacji
Ryc. 9.13. Krzywe pozycyjne w grupie pacjentów z amnezją i - porównawczo - w grupie kontrolnej osób zdrowych (za: Baddeley, Warrington, 1970).
nie pamiętał wsi, w której pracował, zupełnie sprawnie wykonywał swoje co dzienne czynności związane z pielęgnacją ogrodu. Po 10 tygodniach odzys kał pamięć niemal całkowicie, z wyjątkiem kilku minut poprzedzających wy padek. Z pamięcią proceduralną wiązany jest podkorowy obszar zwojów podstawy (basal ganglia), który u pacjenta H.M. i ogrodnika-motocyklisty nie został naruszony. Dlatego bez większych problemów mogli oni korzystać z umiejęt ności nabytych przed urazem. Trudności w nabywaniu i korzystaniu z wiedzy u pacjentów amnestycznych nie dotyczą właściwie żadnej formy pamięci niedeklaratywnej (por. Baddeley, 1998). Wykazano, że osoby z amnezją następczą z powodzeniem mogą nabywać tego rodzaju „wiedzę” w różnego rodzaju procedurach mimowolnego uczenia się. Nie pamiętają jednak nawet epizodu jej nabywania. Z kolei dane kliniczne pochodzące od pacjentów cierpiących na chorobę Parkinsona, prowadzącą do uszkodzenia zwojów podstawy, wskazują na zaburzenia nabywania umiejętności o charakterze proceduralnym, przy za chowaniu możliwości tworzenia nowych zapisów deklaratywnych. Bardzo spe cyficzne zaburzenia pamięci niedeklaratywnej obserwuje się np. w chorobie Alzheimera. Wiedza proceduralna, podobne jak zdolność do jej nabywania, pozostaje właściwie nienaruszona, zaburzeniu podlega natomiast poprzedzanie semantyczne. Przede wszystkim jednak pacjenci cierpiący na chorobę Alzhei mera wykazują ubytki w zakresie pamięci deklaratywnej.
416
Rozdział 9. Czynności pamięciowe
9.6. Podsumowanie Jedną z charakterystycznych cech psychologii jest koncentracja na błędach i innych przejawach niedoskonałości umysłu ludzkiego. Z metodologicznego punktu widzenia należy taką postawę uznać za pożądaną, a w każdym razie zrozumiałą, bo dzięki błędom i usterkom łatwiej nam dostrzec i zrozumieć budowę oraz sposób funkcjonowania dowolnego mechanizmu, nie wyłączając umysłu i tworzących go struktur. Jednak ubocznym skutkiem koncentracji na błędach jest łatwość, z jaką przychodzi nam poddawanie w wątpliwość sku teczności badanych mechanizmów poznawczych. Pamięć jest pod tym względem szczególnie narażona na krytykę, o czym może świadczyć przytoczony na początku rozdziału aforyzm Oskara Wilde’a. Tymczasem, wytykając pamięci grzechy i słabości, nie doceniamy tego, jak olbrzymią i w zasadzie bezbłędną pracę wykonują dla nas różne systemy przechowywania informacji. Poprawne odpamiętanie danych jest bardzo często automatyczne i bezwysiłkowe, przez co trudne do zauważenia i docenienia. Na przykład podczas mówienia bezustannie i bez większych przeszkód czerpiemy z zasobów pamięci semantycznej, przez co prawie zawsze i bez wysiłku znajdujemy pożądane słowo. Dopiero stosunkowo rzadkie przypadki braku dostępu do zasobów pamięci, np. niemożność przy wołania znanego nam słowa, i związane z tym próby wysiłkowego przywołania brakujących informacji sprawiają, że zaczynamy pamięci wytykać jej zawod ność. Traktujemy naszą pamięć jak niewolnika, który pracuje ponad siły, za co nie usłyszy dobrego słowa, ale od czasu do czasu nie jest w stanie podołać stawianym mu zadaniom, i wtedy jest karcony. Na szczęście psychologia po znawcza, oprócz katalogowania przypadków zawodności pamięci i badania kryjących się za nimi mechanizmów, oferuje też całkiem sporą i przyrastającą porcję wiedzy na temat sposobów wspomagania pamięci oraz zapobiegania jej defektom. Badania tego rodzaju będą przypuszczalnie coraz liczniejsze ze względu na starzenie się społeczeństw i związane z tym konsekwencje w postaci defektów pamięci skorelowanych z wiekiem.
Rozdział
Myślenie i rozumowanie
Istota myślenia 421
Rozumowanie sylogistyczne 447
Rodzaje myślenia 425 Myślenie autystyczne i realistyczne 425
Błędy ro zu m o w an ia sy lo g isty czn eg o 449
Myślenie produktywne i reproduktywne 426
Wpływ wiedzy i kontekstu na rozumowa nie sylogistyczne 453
Myślenie twórcze i odtwórcze 427
Rozumowanie warunkowe 455
Myślenie krytyczne 428
Istota rozumowania warunkowego 455
Od myślenia sensoryczno-motorycznego do postformalnego 429
Błędy rozumowania warunkowego 456
Teorie myślenia 430 Teoria Berlyne'a 431 Teoria Barona 433 Struktura myślenia 436 Elementy struktury myślenia 436
Wpływ wiedzy i kontekstu na rozumowa nie warunkowe 458 Teorie rozumowania dedukcyjnego 462 Teoria abstrakcyjnych reguł 462 Teoria modeli m entalnych 465 Rozumowanie indukcyjne 472
Operacje i strategie 437
Testowanie hipotez 472
Reguły, algorytmy i heurystyki 439
Rozumowanie przez analogię 473
Myślenie a inne złożone procesy poznaw cze 442 Rozumowanie dedukcyjne 444 Dedukcja i indukcja 444
Inne rodzaje rozumowania 478 Rozumowanie probabilistyczne 478 Rozumowanie nieformalne 479 Podsumowanie 481
Myślenie to proces łączenia elementów poznawczej reprezentacji świata (obrazów, pojęć lub sądów) w dłuższe ciągi. Tak utworzony ciąg zastępuje realne, obserwowałne zachowanie w rzeczywistym świecie fizycznym łub społecznym, uwalniając nas od konieczności ponoszenia natychmiastowych skutków własnych działań. Rozumowanie jest procesem formułowania wniosku na podstawie przesłanek, czyli z wykorzystaniem uprzednio nabytej lub powszechnie dostępnej wiedzy. Rozpocznijmy od zagadki. Sułtan miał dwóch doradców: rachmistrza i filozofa-ślepca. Pewnego razu, być może znudzony monotonią rządzenia, wezwał ich do siebie i zadał im zagadkę: - Mam trzech synów. Ile lat ma każdy z nich, jeśli iloczyn wieku każdego z nich wynosi 36? Wiesz? - zwrócił się do rachmistrza. -N ie . - A ty? - zapytał filozofa-ślepca. -N ie . - Więc wam podpowiem: suma wieku każdego z nich wynosi tyle, ile okien ma ten pałac naprzeciwko. Zapytał rachmistrza: Wiesz? -N ie . - A ty? - zapytał filozofa-ślepca. -N ie . - Dam wam w ięc ostatnią wskazówkę: mój najstarszy syn nosi niebieski turban. Po czym znowu zwrócił się do rachmistrza: Wiesz? -N ie . - A ty? - zapytał filozofa-ślepca. - Tak.
Jest tylko jeden sposób rozwiązania tej zagadki, który nie wymagałby myślenia: wystarczy przewrócić kartkę i po prostu o nim przeczytać. W każdym innym przypadku, nawet jeśli nie uda się znaleźć odpowiedzi, poczynione próby będą angażować procesy myślenia i rozumowania. Rozwiązywanie zagadki należy rozpocząć od rozpisania wszystkich trójek liczb, których iloczyn wynosi 36 (pierwsza wskazówka). Jest ich aż osiem (zob. tab. 10.1), zatem pierwsza wskazówka nie wystarcza do rozwiązania zagadki. Kolejna podpowiedź może wydać się nieco zaskakująca, szczególnie, że czy telnik - podobnie jak ślepiec - nie może policzyć okien pałacu. Filozof-śłepiec zapewne zadał sobie pytanie, dlaczego rachmistrz nie może udzielić odpowiedzi, skoro policzył okna pałacu. Wniosek: nawet jeśli się je policzy, dalej nie można rozstrzygnąć, który z ośmiu układów trzech liczb jest rozwiązaniem zagadki. Jest to cenna informacja dla filozofa-ślepca, pozwalająca na odrzucenie wszystkich kombinacji dających iloczyn 36, z wyjątkiem dwóch: 1, 6, 6 oraz 2, 2, 9. W obu przypadkach iloczyn jest równy 36, a suma wynosi 13. Trzecia wskazówka okazuje się wystarczająca dla filozofa-ślepca, chociaż nie ma ona postaci rachunkowej i zapewne dlatego nic nie daje rachmistrzowi. Wskazówka, że najstarszy syn nosi niebieski turban, pozwala na wyeliminowanie układu 1,
10.1. Isto ta m yślenia
421
Tab. 10.1. Podpowiedzi do zagadki sułtana. Wiek synów dający iloczyn 36
Suma
1, 1, 36
38
1,2, 18
21
1 ,4 ,9
14
1, 3, 12
16
1 ,6 ,6
13
2 ,2 ,9
13
2, 3 ,6
11
3, 3 ,4
10
6, 6, bowiem w tej sytuacji jest dwóch najstarszych synów, a wskazówka mówi tylko o jednym. Poprawna jest więc odpowiedź: 2, 2, 9, co też odgadł filozof-ślepiec.
10.1. Istota myślenia Zarówno zagadki, jak też złożone i ważne problemy życiowe, wymagają myśle nia, dzięki któremu możemy znaleźć rozwiązanie wyłącznie dzięki przekształ ceniom dokonywanym na umysłowych reprezentacjach świata. W tym sensie myślenie zastępuje działanie (jest jego substytutem); pozwala na symulowanie wydarzeń rozgrywających się w świecie realnym, bez negatywnych, ale i po zytywnych konsekwencji typowych dla rzeczywistego zachowania (Nęcka, 1997). Myślenie jest jednym z narzędzi budowania modeli mentalnych (zob. rozdz. 10.5.2), zawierających m.in. alternatywne wersje wydarzeń, które mo głyby być skutkiem podjęcia określonych działań. Myślenie jest też narzędziem testowania tych modeli, pozwala bowiem na wypróbowanie różnych działań w „wirtualnym”, wyobrażonym świecie, zanim zostaną one naprawdę podjęte. Dlatego im więcej jest tych modeli i im bardziej przystają one do rzeczywistości, tym większe jest prawdopodobieństwo podjęcia optymalnego działania. Z tych względów w badaniach nad myśleniem analizuje się dwa problemy: problem reprezentacji wiedzy o świecie i problem operacji umysłowych, zwanych bar dziej formalnie procedurami obliczeniowymi (computational procedures). Z uwagi na przyjętą strukturę podręcznika, w której problem reprezentacji opi sano osobno (zob. rozdz. 2-4), obecnie skoncentrujemy się na drugim z wymie nionych problemów. Myślenie jest narzędziem uniwersalnym: pozwala modelować sytuacje realne i nierealne, konkretne i abstrakcyjne, dobrze i słabo znane. Pozwala w związku z tym zmagać się z dowolnym problemem, co nie znaczy, że zawsze będzie to zmaganie się skuteczne. W szczególności, dzięki myśleniu możemy rozwiązywać abstrakcyjne problemy logiczne lub matematyczne, mimo że
422
Rozdział 10. Myślenie i rozumowanie
w historii naturalnej gatunku ludzkiego przypuszczalnie nie było zbyt wielu okazji, aby takie sprawności ćwiczyć i rozwijać. Zdaniem Stevena Pinkera (2002), nie ma przepaści między wzorcami myślenia w trakcie rozwiązywa nia problemów, z którymi borykali się nasi przodkowie w długim okresie antropogenezy, a procesami myślenia angażowanymi w rozwiązywanie ab strakcyjnych problemów współczesnego świata. Pinker (2002; por. też Gould, 1999) uważa, że chociaż mózg człowieka został ukształtowany w toku rozwiązywania konkretnych problemów, z jakimi spotykali się członkowie społeczności zbieracko-łowieckich na afrykańskiej sawannie, później został przystosowany do zadań innego typu, głównie do czynności abstrakcyjnych. Proces adaptacji struktur mózgowych do wymagań, które pierwotnie nie były im stawiane, czyli tzw. egzaptacja (exaptation), nie jest jednak doskonały. Jako gatunek popełniamy więc systematyczne błędy w myśleniu, a zwłaszcza w rozumowaniu. Tego jak bardzo może się różnić myślenie w sytuacjach naturalnych i ab strakcyjnych dowodzi Cole (Cole i in., 1971), podając wiele przykładów myśle nia pozornie nielogicznego. Cole badał przedstawicieli plemienia Kpelle z Liberii, prosząc ich o rozwiązanie prostych sylogizmów. Przykładowe zadanie miało następującą postać: „Flumo i Yakpalo zawsze razem piją sok trzcinowy. Flumo pije sok trzcinowy. Czy Yakpalo pije sok trzcinowy?”. Odpowiedzi udzielane przez lud Kpelle były np. takie: „W dniu, w którym Flamo pił sok trzcinowy, Yakpalo nie było w wiosce”, albo „Yakpalo tutaj teraz nie ma. Dla czego nie pójdziesz do niego i sam go nie spytasz?”. Anegdota głosi, że kiedy eksperymentator chciał przejść do kolejnego pytania, jeden z badanych zapytał: „Chwila, chcesz wiedzieć, czy Yakpalo pije sok trzcinowy, czy nie chcesz?”. Nie były to oczekiwane przez badacza odpowiedzi na postawione pytania, ale by najmniej nie świadczyły o braku inteligencji (Neisser, 1976). Biorąc pod uwagę praktyczny kontekst, w którym kształtowało się myślenie plemienia Kpelle, odpowiedzi te są bardziej inteligentne, niż mogli tego oczekiwać badacze. Utajona „definicja” inteligencji, przyjmowana w danej kulturze, wpływa na to, jakie zachowania będą w niej cenione i wzmacniane. Definicja ta jest ściśle związana z potrzebami i celami danej kultury. Zastosowanie zdolności do abstrakcyjnego myślenia w realiach życia plemienia Kpelle jest zapewne dość ograniczone, w przeciwieństwie do praktycznych wymagań życia codziennego. Dlatego odpowiedzi na sylogizmy Cole’a należy uznać za inteligentne i świad czące o wysokiej sprawności procesów myślenia. Oczywiście zainteresowanie psychologów tym, jak rozwiązujemy sylo gizmy, ma głęboki sens. Ich niekiedy absurdalna treść1 pozwala na badanie myślenia w sterylnej postaci, oderwanej od doświadczenia jednostki. Dzięki temu uzyskujemy dostęp do formalnych właściwości myślenia, które są podstawą wyodrębnienia różnych jego rodzajów (zob. rozdz. 10.2). Kontekst treściowy zadań modyfikuje proces myślenia, niekiedy go wspomagając, a kiedy indziej zaburzając, przez co stanowi dodatkowe źródło wariancji obserwo wanych wyników badań. W związku z tym współczesne badania nad myśle niem, rozumowaniem i rozwiązywaniem problemów nie abstrahują od treści 1 Na przykład: Niektóre krowy tańczą walca, wszyscy tańczący walca są pszczelarzami, więc niektóre krowy są pszczelarzami.
10.1. Istota myślenia
423
zadań, lecz poddają ją ścisłej kontroli. W tego typu badaniach na różne sposoby wykazuje się istotne zróżnicowanie sprawności tych procesów w zależności od treści, jakich one dotyczą. Przykładowo, w badaniach Carraher, Carrahera i Schliemanna (1985, za: Wagner, 2000) osoby badane rozwiązywały zadania arytmetyczne, które prezentowano im w różnych postaciach: abstrakcyjnego równania matematycznego, realistycznego zadania tekstowego i transakcji kupna-sprzedaży. Problemy te były izomorficzne, tj. identyczne w swojej struk turze głębokiej (w tym przypadku były identyczne rachunkowo), jednak różniły się treścią. Okazało się, że w przypadku abstrakcyjnej formy problemu poprawność wykonania wyniosła 37%, kiedy było to zadanie tekstowe - 74%, a gdy przybrało postać transakcji kupna-sprzedaży - aż 96%. Nie chodzi tylko o to, że problemy różniły się poziomem konkretności, lecz o powiązanie ich treści z doświadczeniem osób badanych w rozwiązywaniu danego typu problemów. W innych badaniach Ceci i Ruiz (1991) zauważyli, że eksperci w jednej dziedzinie (totalizatorze na wyścigach konnych) nie potrafili dokonać transferu swojej wiedzy na inną dziedzinę (giełda papierów wartościowych), mimo że stawiane przed nimi problemy były izomorficzne. Chodzi więc o związek różnych aspektów problemów (treści, kontekstu, wymaganych do jego wykonania operacji poznawczych) z osobistym doświadczeniem, prze kładającym się m.in. na wprawę w stosowaniu określonych strategii. Inne badania wskazują, że istotny wpływ na efektywność myślenia ma również motywacja (Ceci, 1990). Dzieci, biorące w nich udział, miały za zadanie przewidywanie położenia figur geometrycznych, eksponowanych na ekranie komputera. Wyświetlaniem figur rządziła pewna nieskomplikowana reguła, więc w pewnej serii prób można ją było z powodzeniem wychwycić. Okazało się, że po 750 próbach dzieci reagowały na poziomie przypadku. Jeśli jednak zadanie zostało zmienione tak, aby miało postać gry komputerowej (przy zachowaniu podobieństwa reguł w stosunku do poprzedniej wersji), poprawność przewidy wań wzrosła po 750 próbach do 90%. Oczywiście oprócz motywacji osób badanych zmieniła się również powierzchniowa (treściowa) charakterystyka zadania, czyniąc je bardziej przyjaznym dla użytkownika. Konkludując można przywołać stanowisko Pinkera (2002), który twierdzi, że „żaden organizm nie potrzebuje pozbawionych treści algorytmów, dających się stosować do każdego problemu, niezależnie od jego ezoteryczności” (s. 330). Zależność myślenia, w szczególności błędów, jakie popełniamy w tym procesie, od złożonego ze wnętrznego i wewnętrznego kontekstu działania jednostki, jest najzupełniej zrozumiała przy uwzględnieniu warunków, w których kształtował się nasz system poznawczy. Jeśli zapytamy, czy człowiek jest istotą racjonalną, odpo wiedź brzmi, że z punktu widzenia logiki formalnej niekiedy, a nawet często, nie jest. Jednak Tooby i Cosmides (1992; Cosmides, Tooby, 1996) mówią o tzw. racjonalności ekologicznej (ecological rationality), tłumaczącej niepełne do stosowanie umysłów naszego gatunku do myślenia abstrakcyjnego, w przeci wieństwie do znakomitego ich dostosowania do myślenia praktycznego. Jednak bez zdolności myślenia abstrakcyjnego nie byłoby większości odkryć nauko wych, wynalazków i wielu innych osiągnięć ludzkości, dzięki którym jesteśmy teraz tu, gdzie jesteśmy. W psychologicznych koncepcjach myślenia można wyróżnić trzy rodzaje modeli: deskryptywne, preskryptywne i normatywne. Ich rozróżnienia doko
424
Rozdział 10. Myślenie i rozumowanie
namy z wykorzystaniem przykładu zadania z zakresu rachunku prawdopodo bieństwa (Kahneman, Tversky, 1972). W pewnym mieście stwierdzono, że wszystkie zamieszkujące go rodziny mają sześcioro dzieci. W 72 rodzinach kolejność urodzin dziewcząt (D) i chłopców (C) była następująca: D C D C C D. Należy oszacować liczbę rodzin, w których kolejność urodzin dzieci jest taka: C D C C C C. Większość badanych Kahnemana i Tversky’ego twierdziła, że takich rodzin będzie mniej niż 72, nawet jeśli wiedzieli, że prawdopodobieństwo narodzin chłopca lub dziewczynki jest jednakowe. Z rachunku prawdopodo bieństwa wynika, że oba układy narodzin są jednakowo prawdopodobne, bo wiem składa się na nie sześć niezależnych zdarzeń (narodzin), z których każde ma prawdopodobieństwo 1/2. Modele deskryptywne ujmują myślenie z perspektywy tego, jak ludzie „naprawdę” myślą. Ich ambicją nie jest dociekanie tego, jak powinno przebiegać myślenie człowieka z punktu widzenia poprawności wnioskowania czy logiki. Ich celem jest opis procesu myślenia w jego rzeczywistej postaci z wszystkimi systematycznymi błędami i uproszczeniami. Podstawową formą ekspresji tych modeli są heurystyki, czyli uproszczone reguły wnioskowania i podejmo wania decyzji, stosowane w konkretnych sytuacjach. Heurystyki, chociaż na ogół skuteczne, w szczególnych warunkach zawodzą, jak w przypadku opisa nego powyżej problemu, użytego przez Kahnemana i Tversky’ego (1972). Autorzy tłumaczą zaobserwowane błędy stosowaniem tzw. heurystyki repre zentatywności (zob. rozdz. 12.1.1), bowiem proporcja chłopców do dziewcząt w pierwszym przypadku jest bardziej reprezentatywna dla proporcji mężczyzn i kobiet w populacji, a ponadto wydaje się - rzecz jasna niesłusznie - bardziej przypadkowa. Modele preskryptywne i normatywne dotyczą tego, jak powinniśmy myśleć. Modele preskryptywne dotyczą poprawności z punktu widzenia stosowanych heurystyk. Heurystyka reprezentatywności w odniesieniu do szacowania prawdopodobieństwa zdarzeń działa z powodzeniem, jeśli zda rzenia te są od siebie zależne. Prawdopodobieństwo zdania dziesiątego egza minu na ocenę bardzo dobrą przez wyróżniającego się studenta jest wyższe, niż to, że go wcale nie zda. Zdarzenie to nie jest losowe i nie jest niezależne od poprzednich osiągnięć studenta, które z kolei wynikają zapewne z jego zdolności i pracowitości. Błąd większości osób, biorących udział w badaniach Kahnemana i Tversky’ego, polegał więc na zastosowaniu heurystyki niedo stosowanej do charakteru zadania. Właściwą dla tego zadania heurystykę moż na byłoby sformułować następująco: każda sekwencja takiej samej liczby równie prawdopodobnych zdarzeń jest zawsze tak samo prawdopodobna (por. Baron, 2000). Modele normatywne dotyczą z kolei poprawności myślenia z punktu widzenia pewnego systemu norm, którym może być - odnosząc się do przykładu zadania Kahnemana i Tversky’ego - np. teoria rachunku prawdopodobieństwa. Stosując poniższy wzór, możemy wyliczyć i porównać prawdopodobieństwa p uzyskania ciągów D C D C C D oraz C D C C C C : p(ciągu zdarzeń) = II [p(poszczególnych zdarzeń)],
czyli w przypadku obu powyższych ciągów: p = 1/2 • 1/2 ■1/2 ■1/2 • 1/2 • 1/2 = 1/64.
10.2. Rodzaje m yślenia
425
Prawdopodobieństwo to jest identyczne w obu przypadkach. Aplikowanie mo deli normatywnych do myślenia wiąże się jednak z dwoma problemami. Po pierw sze jest ono zwykle bardziej czasochłonne i bardziej wysiłkowe, niż zastosowanie prostszych heurystyk. Zastosowanie modeli preskryptywnych w przedstawionym wyżej przykładzie daje taki sam rezultat, a nie wymaga szczegółowych kalkulacji. Niekiedy zdarza się, że zastosowanie każdego z trzech opisanych modeli daje dokładnie taki sam rezultat, bądź różnice między nimi są niewielkie. W wielu sytuacjach - szczególnie codziennych - wysiłek włożony w zastosowanie modelu normatywnego może być niewspółmierny do uzyskanego rezultatu. W psychologii poznawczej większość badań dotyczy modeli deskryptywnych. Jednak wyniki tych badań są konfrontowane z modelami normatywnymi, co po zwala na śledzenie zbieżności i rozbieżności między nimi. Z kolei modele preskryptywne, dające podobne rezultaty jak modele normatywne, ale pozwalające na stosowanie uproszczonych heurystyk, mają zastosowanie głównie w edukacji. Tomasz Maruszewski (2001) podaje w wątpliwość dwie podstawowe właś ciwości myślenia w rozumieniu potocznym. Pierwsza dotyczy tego, że myślenie jest procesem świadomym. Świadomość pełni istotną rolę w myśleniu, bowiem bez uświadomienia sobie rezultatów myślenia niemożliwe byłoby m.in. dokona nie oceny, że osiągnęliśmy założony cel. Uświadomieniu podlegają więc efekty myślenia (nie tylko końcowe, ale również pośrednie), oraz - ewentualnie - al gorytmy i heurystyki stosowane w myśleniu, podczas gdy jego „mechanika” może pozostać nieuświadomiona. Myślenie, jako złożony proces poznawczy, angażuje cały nasz aparat poznawczy, który - jak wielokrotnie wykazywano w poprzednich rozdziałach - w dużej mierze działa poza świadomością. Moc nym dowodem na poparcie tej tezy wydaje się fenomen rozwiązywania proble mów przez wgląd (zob. rozdz. 11.7.4). Pomimo kontrowersji co do poznawczego mechanizmu wglądu, istotne jest to, że pojawia się on nagle, co zwykle zaska kuje samą osobę rozwiązującą problem. Co ciekawe, nie jest ona świadoma czynników, które doprowadziły ją do odnalezienia rozwiązania. Również dane empiryczne wskazujące na wpływ podpowiedzi wspomagających rozwiązywanie problemów wymagających wglądu bez uświadomienia sobie tego wpływu, a nawet zdawania sobie sprawy z obecności samych podpowiedzi, sugerują, że myślenie obejmuje czynniki nieuświadamiane. Drugą cechą myślenia w ujęciu potocznym, kwestionowaną przez Maruszewskiego, jest kontrolowany charak ter tego procesu. Doskonałym argumentem za słusznością stanowiska Maru szewskiego są badania nad intruzjami w myśleniu. Myśli intruzywne, dotyczące treści nieprzyjemnych dla podmiotu, pojawiają się w świadomości pomimo podejmowanych starań ich wyparcia. Co więcej, im bardziej próbujemy o nich nie myśleć, tym łatwiej one powracają (Wegner, 1989). Myśli intruzywne nie poddają się zatem kontroli.
10.2. Rodzaje myślenia 10.2.1. Myślenie autystyczne i realistyczne David Berlyne (1969) wyróżnił dwa rodzaje myślenia: autystyczne i realistyczne. Kryterium tego podziału dotyczy ukierunkowania procesów umysłowych, czyli
426
Rozdział 10. Myślenie i rozumowanie
nastawienia na osiągnięcie określonego celu. Myślenie autystyczne jest rodza jem myślenia, które nie jest nastawione na osiągnięcie konkretnego efektu. Jest to myślenie charakterystyczne dla stanu relaksacji, kiedy myślimy o przysło wiowych niebieskich migdałach. W swojej istocie polega na tworzeniu luźnych skojarzeń i oderwanych od rzeczywistości spekulacji. W myśleniu autystycznym mogą przestać obowiązywać zasady logiki i konsekwencji, a kolejne akty myś lenia mogą być z sobą bardzo luźno powiązane. Podkreślić należy, że w takim rozumieniu myślenie autystyczne nie jest w żaden sposób zaburzone, ani nie stanowi objawu patologii. Mimo że nie jest ukierunkowane na cel, spełnia ważną funkcję w życiu każdego człowieka. Pozwala fantazjować i zastępczo zaspokajać potrzeby, które chwilowo nie są możliwe do zaspokojenia. W odpo wiednich warunkach może też stać się podłożem twórczości. Typowe dla myśle nia autystycznego luźne skojarzenia są podstawą technik twórczego oddalenia (np. superpozycji, zob. Nęcka, 1994; Nęcka i in., 2005), stosowanych w roz wiązywaniu problemów. Oderwane od rzeczywistości spekulacje mogą też stanowić podstawę technik opierających się na strategii wyniku idealnego, w których pierwsze rozwiązania problemu są zwykle zupełnie nierealne (zob. Nęcka, 1995). W takim wypadku dojście do rozwiązania wymaga chwilowego oderwania się od wymagań narzuconych przez realną rzeczywistość, czemu myślenie autystyczne wyraźnie sprzyja. Próbę operacjonalizacji pojęcia myślenia autystycznego podjęli Harrison i Newirth (1990). Autorzy stworzyli zadanie, nazwane testem mostu skojarze niowego (Associative Bridge Test), polegające na łączeniu za pomocą luźnych skojarzeń dwóch niezwiązanych pojęć. Test składał się z 20 par słów, wy selekcjonowanych z biblioteki norm kojarzenia słów (word-association norm\ Bousfield, Cohen, Whitmarch, 1961), np. gładki - chłopiec, lekarz - fałszywy. Badania nie dotyczyły mechanizmów poznawczych myślenia autystycznego, dlatego ich wyniki w tym miejscu pominiemy. Pewnym źródłem danych na temat tych mechanizmów mogą być badania z zakresu psychologii twórczości (por. Nęcka, 2001). W odróżnieniu od autystycznego, myślenie realistyczne uwzględnia ograni czenia nakładane przez rzeczywistość, a ponadto jest ukierunkowane2 na osiągnięcie jakiegoś celu. Zazwyczaj tym celem jest rozwiązanie problemu, ale może nim być również zdefiniowanie problemu, ocena wypracowanych roz wiązań, udowodnienie twierdzenia, sprawdzenie poprawności wniosku sylogistycznego lub inne wyróżnione stany.
10.2.2. M yślenie produktywne i reproduktywne Podział myślenia na produktywne i reproduktywne pochodzi od Otto Selza (1922). Dotyczy on myślenia realistycznego, ukierunkowanego na rozwiązanie problemu lub osiągnięcie innego celu (Berlyne, 1969). Według Selza efektem myślenia produktywnego jest wytworzenie nowych treści intelektualnych, pod czas gdy myślenie reproduktywne sprowadza się do różnych form odtwarzania 2 Myślenie realistyczne i ukierunkowane to synonimy, choć każdy z tych terminów podkreśla nieco inny aspekt tego zjawiska.
10.2. Rodzaje myślenia
427
przeszłego doświadczenia. Nie znaczy to, że myślenie reproduktywne jest ze swej istoty łatwe i cechuje się niewielkim poziomem złożoności. Wyciągnięcie pierwiastka kwadratowego z liczby 256 (o ile nie pamięta się gotowego wyniku) wymaga myślenia reproduktywnego na stosunkowo niskim poziomie złożo ności. Ale już sporządzenie rutynowego raportu na temat wykorzystania czasu pracy w ostatnim kwartale może być zadaniem trudnym i złożonym, a mimo to nie prowadzącym do wytworzenia nowej wiedzy. Jeśli ekspert błyskawicznie rozwiązuje problem z dziedziny, na której dobrze się zna, wykorzystuje złożone procesy myślenia reproduktywnego, prowadzące do wartościowego wyniku, a przecież nie tworzy zasadniczo nowej wiedzy - ani dla innych, ani nawet dla samego siebie. W odniesieniu do myślenia produktywnego, nowość może dotyczyć albo wytworu będącego efektem myślenia (np. wypracowanego rozwiązania prob lemu), albo procesu poznawczego, który do tego wytworu doprowadził. Treść i wynik myślenia produktywnego są nowe z punktu widzenia dotychczasowej wiedzy podmiotu myślącego, ale niekoniecznie z punktu widzenia innych ludzi, a zwłaszcza całej ludzkości. Nie ma znaczenia, czy proces myślenia lub jego wytwór jest obiektywnie nowy, czyli też jest powtórzeniem czegoś, co wcześniej wymyślił ktoś inny. Gdyby osoba pozbawiona elementarnego wykształcenia na własną rękę doszła do przekonania, że suma kątów w trójkącie wynosi 180°, byłby to przykład myślenia produktywnego, ponieważ wypracowano by wiedzę nową dla podmiotu. Berlyne (1969), rozwijając ten podział procesów myślenia na podstawie idei neobehawioryzmu i neoasocjacjonizmu, u podłoża myślenia produktywnego widzi zespół reakcji, którego osobnik nigdy wcześniej nie wykonał, a który jest odległy od jego reakcji nawykowych. Myślenie produktywne to inaczej ciąg symbolicznych reakcji, jeszcze w danej sytuacji bodźcowej nie wypróbowanych. Autor podaje przykład pilota, który wykrył defekt podwozia w samolocie. Usu nięcie awarii wymagało spowodowania zwarcia w instalacji elektrycznej ste rującej podwoziem. Ponieważ pilot nie miał nic innego pod ręką, wykorzystał w tym celu szpilkę do włosów stojącej obok stewardesy. Nie można powiedzieć, aby było to szczególnie twórcze rozwiązanie problemu, chociaż dla pilota miało charakter produktywny. Dopiero gdy myślenie produktywne prowadzi do rezultatu, który jest nowy obiektywnie, zyskuje znamiona myślenia twórczego.
10.2.3. Myślenie twórcze i odtwórcze Podział myślenia na twórcze i odtwórcze oparty jest na kryterium społecznym, a nie psychologicznym. O tym, czy myślenie produktywne jest zarazem twórcze, decyduje społeczny kontekst, w którym wynik myślenia musi zostać oceniony jako nowy i wartościowy w sensie poznawczym, estetycznym, etycznym albo użytkowym (Nęcka, 2001). O ile kryterium nowości może być zobiektywizowa ne (np. przez urzędy patentowe), to wartość wyniku jest już sprawą bardziej subiektywnej oceny grup społecznych, albo osób mających uprzywilejowaną pozycję w tych grupach (krytycy, recenzenci). Istotny jest również związek z określonym miejscem i czasem, w którym dokonuje się społeczna ocena wy tworu (Stein, 1953). Na przykład odkrycie sposobu przemieszczania i podno
428
Rozdział 10. Myślenie i rozumowanie
szenia wielkich bloków skalnych siłą ludzkich mięśni, wykorzystywanego przez budowniczych piramid egipskich, dziś jest wiedzą zapomnianą, chociaż kiedyś było efektem myślenia twórczego. Gdyby jednak wiedza ta okazała się niezbędna w przyszłości, wymagałaby ponownego odkrycia3 i byłby to w wymiarze spo łecznym akt myślenia twórczego. Dlatego twierdzi się, że myślenie produktywne nie różni się od twórczego w sensie psychologicznym, a jedynie w zakresie oceny społecznej. Jednak Nęcka (1997) uważa, że również w sensie psychologicznym myślenie twórcze jest czymś więcej niż myślenie produktywne. Mianowicie może angażować inne rodzaje myślenia: obok myślenia produktywnego, rów nież autystyczne i krytyczne. Z tych powodów należy je uznać za psycho logicznie odrębny rodzaj aktywności umysłowej. Natomiast myślenie odtwórcze to każdy przypadek aktywności umysłowej, którego wynik nie uzyskał uznania jako jednocześnie nowy i wartościowy dla społeczności. Mogą to być akty myślenia produktywnego lub reproduktywnego, a także krytycznego lub auty stycznego. Z faktu, że nie są twórcze, nie wynika, że brak im złożoności, wyra finowania lub innych wartości. Większość naszych aktów myślenia to myślenie odtwórcze, a przecież nie brak im przydatności, a niekiedy wysokiego poziomu złożoności.
10.2.4. M yślenie krytyczne Myślenie krytyczne jest rodzajem myślenia realistycznego, ukierunkowanego na specyficzny cel, jakim jest ewaluacja. Nie jest ono zupełnie odrębne od myślenia reproduktywnego i produktywnego, ponieważ zawiera w sobie elementy jednego i drugiego (Nęcka, 1997; por. Halpern, 2003). Celem myślenia krytycznego jest rzetelna i realistyczna ocena istotnych aspektów aktywności intelektualnej czło wieka. Może dotyczyć zarówno wytworu owej aktywności, jak i samego jej przebiegu. Ewaluacja może dotyczyć nie tylko aktywności innych osób, ale też aktywności własnej. W pierwszym przypadku ocena stanowi osobny cel poznawczy, realizowany dzięki myśleniu krytycznemu. Ocenie podlega wartość końcowego wytworu, ale również ważność podjętego problemu, adekwatność użytych strategii, prawomocność zastosowanych reguł wnioskowania i inne elementy struktury myślenia. Myślenie krytyczne w tej wersji jest domeną recenzentów i zawodowych krytyków sztuki, a także prokuratorów, sędziów, policjantów i przedstawicieli innych zawodów, w których niezbędna jest ocena przebiegu i wyników procesów poznawczych innego człowieka. W przypadku, gdy ewaluacji poddajemy własną aktywność intelektualną, myślenie krytyczne zwykle towarzyszy innym rodzajom tej aktywności, np. myśleniu twórczemu. Uznawane jest wówczas za proces metapoznawczy (Sternberg, 1985), angażo wany w różnych fazach myślenia: formułowania problemu, doboru strategii poznawczych i planowania sekwencji operacji intelektualnych. W fazie definio wania problemu, ewaluacji podlega poprawność jego ujęcia, wartość samego problemu, realność celów itd. Ocena związana z doborem strategii i operacji poznawczych dotyczy przede wszystkim ich adekwatności w stosunku do reali 3 Chyba, że archeolodzy wcześniej odkryją, jaką techniką posługiwali się starożytni Egipcjanie.
10.2. Rodzaje m yślenia
429
zowanego celu (kryterium poznawcze) oraz ich wysiłkowości (kryterium mo tywacyjne). Według Dianę Halpern (2003) myślenie krytyczne ma na celu zwiększenie prawdopodobieństwa otrzymania wyniku, który jest pożądany (desirable) ze względu na przyjęte kryteria, podczas gdy myślenie twórcze prowadzi nas do wyniku nowego i wartościowego. W takim ujęciu oba rodzaje myślenia nie wy kluczają się, ponieważ wynik „pożądany” może być również nowy i użyteczny. Ma to miejsce np. wówczas, gdy poprzez krytyczną ocenę teorii naukowej do chodzimy do wniosku, w jaki sposób można by ją ulepszyć, albo gdy porównując dwie teorie wypracowujemy własną syntezę. Tego typu myślenie jest typowe dla niektórych dyscyplin akademickich, np. filozofii. Wymaga odpowiednich spraw ności poznawczych, takich jak rozumowanie na materiale werbalnym, czy też ocena trafności użytych argumentów. Myślenie krytyczne wymaga ponadto umiejętności testowania hipotez oraz zdolności do oceny prawdopodobieństwa i do działania w warunkach niepewności. Na przykład terapeuta w pracy z pacjen tem musi umieć zweryfikować alternatywne hipotezy co do przyczyn trudności pacjenta i ocenić prawdopodobieństwo skuteczności określonej procedury tera peutycznej, a wszystko to w warunkach niepewności co do rzeczywistej sytuacji życiowej pacjenta i realnych możliwości jego działania. Szczególnym przypad kiem myślenia krytycznego jest ocena wiarygodności osoby, którą podejrzewamy o kłamstwo albo chęć manipulowania prawdą. Zdaniem Wakefielda (2003), myślenie krytyczne pozwala nam wyklarować pytanie lub problem, ocenić wia rygodność dowodów lub wypracować rzetelne kryteria oceny wytworów cudzej aktywności intelektualnej. Trzeba tego typu myślenie odróżnić od krytycznej refleksji, która polega na zastosowaniu sprawności umysłowych do oceny relacji między tym, jak działamy, a tym, co jest w danej kulturze cenione jako spełniające kryteria etyczne. Krytyczna refleksja polega na analizie własnego działania w świetle takich pytań, jak: „Czy to, co robię, odpowiada moim założeniom, wartościom i przekonaniom?” albo „Czyim interesom służy moja działalność?” (Wakefield, 2003). Na gruncie etyki katolickiej krytyczna refleksja ma miejsce przede wszystkim podczas rachunku sumienia poprzedzającego spowiedź.
10.2.5. Od myślenia sensorYCzyno-motorycznego do postformalnego Podział myślenia oparty na kryterium rozwojowym (albo ewolucyjnym), jest bardzo bogaty w różne ujęcia teoretyczne i związane z nim etykiety nadawane poszczególnym fazom rozwoju myślenia. Najprostszy podział tego rodzaju uwzględnia dwa jego rodzaje: sensoryczno-motoryczne i wyobrażeniowo-pojęciowe. Pierwsze polega na przetwarzaniu informacji ograniczonym do bodź ców rejestrowanych sensorycznie w danym momencie, a operacje na nich doko nywane mają postać czynności eksploracyjnych, np. manipulowania realnymi obiektami. Drugie jest dojrzałą formą myślenia, charakterystyczną wyłącznie dla człowieka od pewnego stadium rozwoju, gdzie wyobrażenia i pojęcia zajmują miejsce spostrzeżeń, a abstrakcyjne operacje przejmują rolę czynności motorycznych. Podział ten akcentuje interioryzację, czyli uwewnętrznienie operacji wykonywanych na realnych obiektach we wczesnych fazach rozwojowych (albo
430
Rozdział 10. Myślenie i rozumowanie
ewolucyjnych), dzięki reprezentacjom wewnętrznym i abstrakcyjnym regułom ich transformacji. Bogatsze klasyfikacje myślenia w nurcie rozwojowym, pochodzące np. od Piageta (1981), opierają się na rozwojowych zmianach fazowych, związanych z równoważeniem procesów asymilacji i akomodacji. Stadium myślenia sensoryczno-motorycznego związane jest z kształtowaniem się zdolności senso rycznych i ruchowych dziecka, kończąc się ukształtowaniem zdolności myślenia wyobrażeniowego, czyli posługiwania się reprezentacjami obiektów, kiedy nie są one obecne w percepcji. W stadium przedoperacyjnym następuje rozwój myślenia pojęciowego i związany z nim rozwój mowy. W tej fazie dziecko uczy się manipulowania pojęciami, a więc dokonywania operacji symbolicznych na obiektach, które również mają charakter symboliczny. Z kolei w fazie operacji konkretnych dziecko nabywa umiejętność myślenia logicznego, ale wyłącznie w odniesieniu do reprezentacji konkretnych obiektów. Istotna dla tej fazy jest zdolność manipulacji reprezentacjami obiektów z zachowaniem zasad stałości, np. ilości: ilość cieczy przelana z jednego naczynia o pewnym kształcie do innego o odmiennym kształcie nie zmienia się. Wiąże się to z odwracalnością operacji myślenia oraz tzw. decentracją, czyli uwzględnieniem w myśleniu wię cej niż jednej cechy obiektów, a nawet gradacji ich ważności (np. ilość jest ważniejsza niż kształt). Odwracalność myślenia oznacza zdolność dokonania w umyśle odwróconego działania (ponownego przelania cieczy do pierwszego z naczyń) i wyprowadzenia logicznego wniosku, że ilości nie różnią się. W ostatnim stadium piagetowskiej koncepcji rozwoju poznawczego - stadium operacji formalnych - dochodzi do przeniesienia zdolności wykształconych w po przednim stadium na obiekty abstrakcyjne. Nie podejmując tutaj szerszej dyskusji na temat trafności koncepcji Piageta, zaznaczyć należy, że krytyce nie podlegają, sformułowane na podstawie badań, zmienne charakterystyki myślenia. Często jednak postulowano, że rozwój myśle nia wykracza poza fazę operacji formalnych. Wprowadzono więc pojęcie myślenia postformalnego, zwanego również dialektycznym (Kramer, 1990; Labouvie-Vief, 1990; Pascual-Leone, 1990). Jak wynika z samej nazwy, jest to myślenie oparte na zasadach dialektyki Hegla, sprowadzające się - w dużym uproszczeniu - do formułowania w myśleniu tez i ich antytez oraz ich późniejszego syntetyzowania, które może być podstawą sformułowania kolejnej tezy, a dla niej stosownej antytezy itd. Myślenie w złożonych, niejednoznacznych sytuacjach życiowych ma - u dojrzałych poznawczo ludzi - właśnie taki charakter. Inni badacze, np. Case (1992) czy Flavell, Flavell i Green (1983), uwzględniają w rozwoju myślenia również kształtowanie się procesów metapoznawczych. Case uważa, że ich wy korzystanie prowadzi do optymalizacji wysiłku poznawczego, np. dzięki auto matyzacji albo odkrywaniu efektywnych strategii poznawczych.
10.3. Teorie myślenia Teorie opisujące proces myślenia bardzo często funkcjonują również jako teorie rozwiązywania problemów (zob. rozdz. 11). Dokonanie ścisłego rozgraniczenia byłoby tutaj trudne, dlatego w niniejszym podrozdziale omówimy tylko dwie koncepcje teoretyczne, z których pierwsza wywodzi się z neobehawioryzmu
j
] 1 j j j j j j
i
j j j
j ( i
10.3. Teorie myślenia
431
a druga - z podejścia informacyjno-przetworzeniowego. Ich wybór był po dyktowany reprezentatywnością dla określonego nurtu badawczego, a także tym, że są to ogólne teorie procesu myślenia, nie zawężające tego zjawiska do rozumowania, wnioskowania, czy też rozwiązywania problemów. 10.3.1. Teoria Beriyne'a Podwalin poznawczego ujęcia procesu myślenia należy upatrywać w pracach neobehawiorysty Davida Berlyne’a (1969). Według tego autora myślenie jest ciągiem symbolicznych bodźców i reakcji, a regułą ich łączenia są symboliczne związki typu S-R. Termin „symboliczny” u Berlyne’a oznacza „zastępczy w stosunku do realnego obiektu” - bodźca albo reakcji. Chodzi więc o trwałe i nietrwałe wewnętrzne reprezentacje wiedzy. Bodziec symboliczny to taki, który posiada znaczenie (dzielone przez podmiot i jego otoczenie) i wywołuje reakcję, kiedy fizycznie bodziec nie jest obecny. Reakcja symboliczna to z kolei reakcja wywołana bodźcem symbolicznym. Przykładem reakcji symbolicznych u Berlyne’a są: mowa, gesty, czynności obrzędowe. Łańcuch symbolicznych bodźców i reakcji może być dość długi (zob. wzór 10.1). Każde ogniwo myślenia ma swój aspekt reaktywny (rp) i bodźcowy (sp), co oznacza, że może być wy woływane albo przez bodziec zewnętrzny (Sx), albo przez aspekt bodźcowy po przedniego ogniwa, ostatecznie prowadząc do reakcji (Rx). Reakcja ma charakter symboliczny, o ile wywołuje następne ogniwo pośredniczące. Berlyne nazywa myślą reakcję symboliczną, która ma charakter utajony i spełnia funkcję sygnałotwórczą, tj. dostarcza bodźców dla kierowania późniejszym zachowa niem. Wśród wielu sposobów powstawania związku S-R, zdaniem Beiyne’a, tylko jedna sytuacja ma charakter symboliczny. Mianowicie kiedy bodziec Sx może skojarzyć się z reakcją pośredniczącą rp, a bodziec sprzężenia zwrotnego sp, wytworzony przez rp, może związać się z Rx. Sx
^pi—spi — > rp2~sp2 - * ..... — > rpn- s pn — > Rx
Wzór 10.1. Ciąg symbolicznych bodźców i reakcji.
Przykładowo: wyobraźmy sobie, że wracając wieczorem do domu, upusz czamy klucz, który wpada nam w szczelinę w krzywo położonych płytkach chodnikowych (Sx). Ponieważ szczelina jest wąska i głęboka, nie możemy go stamtąd wyciągnąć. Myślimy o możliwości skorzystania z pomocy jakiegoś narzędzia, na tyle cienkiego i długiego, aby z jego pomocą dosięgnąć klucza (rpi—spi). Aspekt reaktywny tej myśli wiąże się z reakcją na zgubienie klucza, a aspekt bodźcowy z wywołaniem kolejnej reakcji, np. przeszukiwania kieszeni (rp2-s P2)- Załóżmy, że w wyniku przeszukiwania znajdujemy czekoladkę, która - jak oceniamy - nie przyda nam się do wyciągnięcia klucza (rP3-s p3). Ponownie powracamy do przeszukiwania kieszeni i natrafiamy na kartę bankomatową (rp4-s P4), którą próbujemy wyciągnąć klucz (rp5- s p5) itd., aż do odzyskania klucza (Rx). Jeśli jakiś problem powtarza się wielokrotnie, kolejne symboliczne związki S-R ulegają utrwaleniu w procesie uczenia się, w którym kolejne reakcje są wygaszane (ewentualna próba użycia czekoladki), albo wzmacniane (użycie karty bankomatowej). W końcu stajemy się ekspertami w tego typu problemach, co czyni proces ich rozwiązywania rutynowym.
432
Rozdział 10. M yślenie i rozum ow anie
Berlyne uwzględnia możliwość uruchomienia wielu reakcji symbolicznych w danej sytuacji bodźcowej. O tym, która reakcja zostanie wywołana, decyduje tzw. hierarchia rodziny nawyków, czyli zbiór łańcuchów zachowań symbolicz nych, uporządkowanych pod względem prawdopodobieństwa uruchomienia w odpowiedzi na określony bodziec (zob. wzór 10.2). -> RNi-Sn1 -» Rn2~Sn2 -*■ ..... -*■ Rnx -* S o “♦
R p i-S p i -> Rp2~Sp2 -» ....... -> Rpy - R g Rqi~Sqi -»• Rq2~Sq2 -*• ..... -►Rqz ->
r G -sG
->
- *
Wzór 10.2. Ciąg symbolicznych bodźców i reakcji z udziałem rodziny nawyków.
Jeśli okaże się, że najbardziej prawdopodobny nawyk (w powyższym przy kładzie, np. wciśnięcie dzwonka domofonu) nie może zostać uruchomiony (zbyt późna pora), sięgamy do nawyków umiejscowionych niżej w hierarchii. Jeżeli reakcje nawykowe rutynowo uruchamiane w danej kategorii sytuacji, w wyniku procesu myślenia przenoszone są na inną kategorię sytuacji, Berlyne mówi o myśleniu typu S. Jest ono w swoim charakterze zbliżone do myślenia reproduktywnego. Kiedy jednak podmiot wykonuje reakcję lub sekwencję reakcji, której nigdy wcześniej nie wykonywał - i nie wykonałby, gdyby nie procesy myślenia - należy ono do myślenia typu R. Byłoby to już myślenie produktywne. Teoria Berlyne’a ma już wymiar historyczny, chociaż to właśnie jego ujęcie istoty procesów myślenia zawarte zostało w definicji umieszczonej na początku rozdziału. Z punktu widzenia psychologii poznawczej istotne jest, że Berlyne wprowadził cenne idee, które stworzyły podwaliny informacyjno-przetworzeniowego ujęcia myślenia. Autor, posługując się wczesnymi teoriami informacji (Attneave, 1959; Luce, 1960; Miller, 1953), wzbogacił swoje ujęcie myślenia 0 dwie grupy procesów poznawczych: zbierania i odrzucania informacji. Myślenie wymaga zatem wypełnienia luk informacyjnych w aktualnej sytuacji bodźcowej. Można to osiągnąć na wiele sposobów, np. dzięki zachowaniom eksploracyjnym 1zachowaniom poznawczym. Zachowania eksploracyjne (Berlyne, 1960) mają na celu wzmożenie stymulacji z pola bodźcowego, albo nawiązanie kontaktu ze źródłami stymulacji, które mogą znajdować się poza jego granicami. Do zacho wań eksploracyjnych zaliczyć można nastawienie receptorów, eksplorację ru chową i reakcje badawcze (np. manipulacja obiektami). Zachowania poznawcze mają na celu zdobycie wiedzy (informacji), w celu jej przechowania i późniejszego wykorzystania w przebiegu procesów symbolicznych. Z kolei odrzucanie informacji, czyli selekcja uwagowa przewidywana w teorii Berlyne’a, dokonuje się ze względu na dwie przyczyny. Po pierwsze dlatego, że większość informacji zawartej w bodźcach zewnętrznych nie ma związku z procesem prowadzącym do wygenerowania reakcji, a po drugie - ze względu na ograniczoną przepustowość kanałów przetwarzania informacji. In nym, poza uwagą, mechanizmem odrzucania, a właściwie redukowania ilości informacji, jest abstrakcja, rozumiana jako mechanizm redukcji różnorodności poprzez ignorowanie różnic: obiekty, które nie są identyczne, traktuje się równoważnie. W terminologii behawioralnej abstrakcja oznacza utworzenie tzw. klasy równoważności sytuacji bodźcowych, które mają pewne cechy wspól ne, choć różnią się pod innymi względami, oraz reagowanie w ten sam sposób na wszystkie sytuacje należące do tej klasy.
10.3. Teorie myślenia
433
10.3.2. Teoria Barona W podejściu informacyjno-przetworzeniowym uważa się, że myślenie „włącza się” w sytuacji wątpliwości albo niepewności co do tego, jak się zachować, w co wierzyć lub czego pragnąć (Baron, 2000). W takich okolicznościach myślenie pozwala rozwiać wątpliwości albo zmniejszyć niepewność. Jest więc podstawą podejmowania decyzji, kształtowania przekonań i osobistych celów. Bierze też zazwyczaj udział w rozwiązywaniu problemów. Według Jonathana Barona (2000), myślenie składa się z dwóch grup ope racji: poszukiwania {search) i wnioskowania (inference). Poszukiwanie może dotyczyć trzech klas obiektów: możliwości {possibilities), dowodów {evidence) i celów {goals). Wnioskowanie to formułowanie konkluzji na podstawie dostępnych przesłanek na drodze rozumowania. Możliwości to potencjalne od powiedzi na zadane pytania, dopuszczalne sposoby rozwiązania początkowego stanu wątpliwości czy niepewności. W przytoczonej na początku rozdziału zagadce początkowo znajdujemy osiem możliwości spełniających pierwszy wa runek zadania (iloczyn równy 36), a proces wnioskowania polega na ich zawężaniu aż do pozostawienia tylko jednej. Z kolei cele stanowią kryteria czy standardy oceny możliwości. W naszym przykładzie celem jest odnalezienie jednej kombinacji trzech liczb, będących rozwiązaniem zadania. Kryteria oceny możliwości są proste i klarowne. W przypadku problemów życiowych cele są zwykle bardziej złożone, jest ich więcej i najczęściej nie są precyzyjnie zdefiniowane. Myślenie służy wówczas ich odkryciu, szczególnie w przypadku problemów źle określonych (Reitman, 1965) czy otwartych (Kozielecki, 1968; zob. rozdz. 11.2.1). Na przykład w trakcie studiów uczymy się wielu rzeczy, z których spora część wydaje się początkowo pozbawiona znaczenia praktycz nego. Niektóre cele zajęć akademickich odkrywamy dość szybko, ale dopiero po studiach, gdy rozpoczynamy pracę zawodową. W problemach życiowych jednoczesne osiągnięcie wszystkich założonych celów bywa trudne bądź nie opłacalne. Poszukiwanie partnera życiowego, o ile jest procesem choćby w mi nimalnym stopniu racjonalnym, kończy się zwykle osiągnięciem tylko częścio wej zgodności cech partnera z naszym wyobrażeniem tej osoby. Trudno w tym przypadku osiągnąć wszystkie cele tak zdefiniowanego poszukiwania, bo to oznaczałoby znalezienie partnera spełniającego wszystkie wymagania. Z kolei w przypadku zakupu szamponu do włosów, który jest tzw. produktem niskiego zaangażowania, osiągnięcie wszystkich celów, o ile byłoby możliwe, okazuje się nieopłacalne. Biorąc pod uwagę fakt, że kupujemy i używamy dziesiątki produktów, ich całkowicie systematyczny wybór byłby nie tylko czasochłonny, ale i bardzo wysiłkowy. W takich sytuacjach zazwyczaj podejmujemy decyzje opierając się na uproszczonych heurystykach (zob. rozdz. 12; por. też Fal kowski, Tyszka, 2001), które w mniejszym bądź większym stopniu pozwalają na osiągnięcie zadowalającego rezultatu z zachowaniem zasady oszczędności poznawczej. Dowody, czyli trzecia kategoria obiektów stanowiących przedmiot poszu kiwania, to wszelkie informacje, pomocne w ustaleniu zakresu, w którym okreś lona możliwość spełnia założone cele (jest zgodna z przyjętymi kryteriami oceny możliwości). Wnioskowanie polega na analizie sił i słabości każdej możliwości na podstawie dowodów, co dokonuje się w świetle założonych celów. Innymi
434
Rozdział 10. Myślenie i rozumowanie
słowy, dowody są źródłem przesłanek, pozwalających na analizę możliwości pod kątem realizacji założonych celów. W zagadce z początku rozdziału dowody pochodzą z dwóch źródeł: ze wskazówek udzielanych przez znudzonego sułta na, ale również z wnioskowania o ich znaczeniu dla oceny możliwości. Stwier dzenie, że suma wieku każdego z synów sułtana wynosi tyle, ile okien ma pałac naprzeciwko, jest przydatna, o ile wyciągniemy z niej właściwe wnioski. Dopiero proces poprawnego wnioskowania pozwala na ograniczenie możliwości, czyli liczby potencjalnych rozwiązań zagadki. Podobnie rzecz się ma z trzecią wska zówką. Wnioskowanie odbywa się według reguł, które mają postać algorytmów albo heurystyk. Te ostatnie wydają się odgrywać przeważającą rolę w ludzkim myśleniu. Wnioskowanie, z wyjątkiem sztucznych zadań laboratoryjnych, wymaga zazwyczaj procesu selekcji dowodów. W zagadce sułtana każda wskazówka jest istotna; wymaga wyjścia poza dostarczone informacje, dzięki wnioskowaniu, co właściwie z niej wynika. W przypadku realnych problemów życiowych może się zdarzyć, że dowody, dostarczone z zewnątrz albo wydobyte z pamięci, mają zróżnicowaną wartość. Niektóre są istotne, inne mniej ważne, a jeszcze inne zupełnie zbędne dla procesu generowania możliwości i ich późniejszej ewaluacji. Dowody zbędne zwykle działają jak dystraktor, przez co ich obecność obniża sprawność procesów myślenia. Z tego względu wnioskowanie musi być poprzedzone selekcją dowodów istotnych z punktu widzenia założonego celu. Kupując szampon do włosów, a tym bardziej drogą wodę toaletową, możemy rzecz jasna korzystać z dowodów dostarczonych nam w reklamie. Jednak wi zerunek pięknych włosów modelki, albo atrakcyjność aktora używającego wody toaletowej, nie jest dowodem wiarygodnym. Gdy zaś reklama próbuje dostar czać dowodów wiarygodnych, staje się zazwyczaj nudna, dlatego większość ludzi kieruje się wskazówkami powierzchownymi. Zdarza się, że nawet trafna selekcja dowodów nie wystarcza, aby dokonać poprawnej ewaluacji możliwości. Szczególnie w przypadku bardziej złożonych problemów (np. zakup domu), kiedy istotnych dowodów jest wiele, potrzebu jemy jeszcze przypisania im wagi, która określa „moc” danego dowodu. Nie kiedy wagi wskazówek są dość obiektywne, jak w przypadku znaczenia różnych czynników dla oceny wartości akcji firm notowanych na giełdzie. Innym razem, jak wtedy, kiedy kupujemy dom, wagi mają charakter bardziej subiektywny. Na przykład komuś może bardziej zależeć na dobrej lokalizacji niż liczbie pokoi. W obu przypadkach trafne decyzje podejmowane są z zastosowaniem tzw. stra tegii kompensacyjnych (zob. rozdz. 12), w których uwzględnia się sporą liczbę wzajemnie uzupełniających lub kompensujących się wskazówek, a także ich obiektywne lub subiektywne wagi. Na przykład brak możliwości realizacji celu w postaci wspaniałego ogrodu wokół domu może zostać skompensowany atrak cyjną ceną i lokalizacją domu, jeśli te wskazówki odpowiednio dużo „ważą” w naszej ocenie. Według Barona (2000), myślenie składa się z poszukiwania możliwości, do wodów i celów oraz wykorzystania dowodów do oceny możliwości. Jednak struk tura procesu myślenia - porządek tych składowych - nie jest sztywna. Cele mogą być włączane i wyłączane z „listy” tego, co chcemy osiągnąć. W każdym momencie procesu myślenia można dodać nowe cele albo usunąć cele wcześniej przyjęte. Kwarciak (1997) opisuje przypadek klienta salonu samochodowego, który wszedł
10.3. Teorie myślenia
435
do sklepu z myślą zakupu dużego samochodu rodzinnego typu kombi, a wyjechał małym autem sportowym. Mało prawdopodobne, aby w salonie pozyskał dowody pozwalające uznać samochód sportowy jako nadający się dla rodziny. Zapewne zmienił swoje cele, a więc i standardy oceny dostępnych możliwości. W procesie myślenia, wraz z pozyskiwanymi dowodami, pojawiają się nowe możliwości, a inne są eliminowane. Największa dynamika zmian dotyczy do wodów, które otwierają albo zamykają pewne możliwości, a niekiedy wpływają nawet na formułowanie celów. Wszelkie zmiany wymagają wnioskowania, ro zumianego jako wykorzystanie zgromadzonych dowodów, zarówno wówczas, gdy - obiektywnie - są one wystarczające (wówczas wnioskowanie zasługuje na miano dedukcji), jak i wtedy, kiedy jest ich zbyt mało (indukcja). Dlatego Baron uważa, że poszukiwanie możliwości, dowodów i celów oraz towarzyszące mu wnioskowanie, to konieczne składniki procesu myślenia. Rycina 10.1. przed stawia związki między celami, możliwościami i dowodami.
--
Ryc. 10.1. Relacje pomiędzy celami (C), możliwościami (M) i dowodami (D) w teorii Barona (2000). Dowody wpływają na „moc” możliwości, ale z uwzględnieniem ich wag, które wynikają z realizowanych celów.
Baron (2000) wyróżnia dwa sposoby poszukiwania celów, możliwości i dowodów: wewnętrzne, polegające na wydobyciu ich z pamięci, i zewnętrzne, działające na postawie dowolnych źródeł informacji nie wchodzących w skład magazynu pamięci trwałej. Ścieżka „zewnętrzna” pojawia się nie tylko wtedy, gdy trzeba zdobyć nowe informacje, bo to co wiemy nie wystarcza dla sprawnego przebiegu procesu myślenia, ale również wtedy, gdy potrzebne jest odciążenie systemu poznawczego, cechującego się ograniczoną możliwością przechowy wania i przetwarzania informacji. W większości procesów myślenia współwystępują obie ścieżki poszukiwania możliwości, celów i dowodów. Integralnym składnikiem myślenia, według Barona (2000), jest planowanie, które obejmuje trzy poziomy: całość zadania, główne jego części oraz detale. Planowanie może zachodzić jednocześnie na wszystkich trzech poziomach. Poszukiwanie możliwości, dowodów i celów odbywa się na każdym z tych po ziomów. Autor wyróżnia ponadto plany krótko- i długoterminowe, w zależności od długości czasu, który obejmują.
436
Rozdział 10. M yślenie i rozum ow anie
10.4. Struktura myślenia Badanie struktury myślenia polega na wyróżnianiu składników budulcowych tego procesu oraz sposobu (reguł) ich łączenia. Jest to szukanie odpowiedzi na pytanie, z czego proces myślenia się składa, oraz jaki jest układ tych składników, czy też reguły rządzące powstawaniem i przebiegiem ciągu myślowego. Tym właśnie kwestiom poświęcimy niniejszy podrozdział. Pod pojęciem struktury myślenia rozumie się też niekiedy etapy i fazy procesu myślenia. Ten aspekt obecnie pominiemy, ponieważ układ faz zależy od tego, czemu myślenie służy. Jeśli służy wyciąganiu wniosków, rozwiązaniu problemu czy podjęciu decyzji, można wówczas mówić o fazach rozumowania, rozwiązywania problemów czy podejmowania decyzji. Zagadnieniami tymi zajmiemy się w kolejnych roz działach, im właśnie poświęconych.
10.4.1. Elementy struktury myślenia Analiza struktury myślenia - w tradycyjnym ujęciu - wymaga uwzględnienia trzech jej właściwości: materiału, operacji i reguł myślenia (por. Kozielecki, 1968, 1992). Materiał to rodzaj informacji przetwarzanych w procesie myślenia, który charakteryzuje się określoną formą i treścią. Może to być reprezentacja konkretnego obiektu, np. wyobrażenie drzewa, albo reprezentacja w postaci ogólnego pojęcia lub sądu, np. istota prawdy. Oba przykłady materiału różnią się nie tylko treścią (drzewo vs. prawda), ale i formą reprezentacji (konkretno-obrazowa vs. abstrakcyjna). Najogólniej rzecz ujmując, materiałem myślenia w sensie formalnym mogą być wszelkie rodzaje reprezentacji umysłowych: obrazy umysłowe, pojęcia, sądy, modele umysłowe. Jeśli jedna z tych kategorii dominuje nad innymi, określa rodzaj procesu myślenia, co pozwala wyróżnić np. myślenie wyobrażeniowe lub pojęciowe. Z kolei treść materiału, na którym dokonuje się myślenie, dotyczy znaczenia tych reprezentacji, czyli ich odnie sienia do rzeczywistości. Aspekt treściowy, zwykle bardzo różnorodny, istotnie wpływa na przebieg procesów myślenia, czego dowodzą m.in. badania nad rozumowaniem (zob. rozdz. 10.5.4 i 10.6.3). Operacje umysłowe to przekształ cenia dokonywane na reprezentacjach umysłowych. Większość operacji wystę puje w różnych procesach poznawczych (np. kodowanie informacji, porówny wanie), natomiast niektóre występują tylko w procesach myślenia (np. doko nywanie skojarzeń). Operacje specyficzne dla myślenia prowadzą do wytwo rzenia kolejnych ogniw w „łańcuchu zachowań symbolicznych”; są to sym boliczne działania, dzięki którym powstają kolejne ogniwa łańcucha myśli. Najprostszym przykładem łańcucha myśli jest ciąg wyobrażeń, połączonych dzięki swobodnym skojarzeniom. W tym wypadku wyobrażenia są ogniwami łańcucha myśli, a skojarzenia - operacjami. Reguły to sposoby porządkowa nia łańcucha operacji umysłowych, składających się na proces myślenia. Innymi słowy, reguły odpowiadają za sposób komponowania operacji umysło wych w pewną całość, zazwyczaj podporządkowaną realizacji celu, któremu myślenie służy. Wyjątkiem jest myślenie autystyczne, które nie ma sprecyzo
10.4. Struktura myślenia
437
wanego celu, chociaż i w tym wypadku można mówić o regułach, którymi ono się rządzi. Celem ilustracji wzajemnych relacji materiału, operacji i reguł myślenia, można je porównać do procesu budowania domku z klocków. Budulcem, czyli materiałem są rzecz jasna klocki, które mają pewną treść, np. drewno, tworzywo sztuczne, oraz formę, tj. kształt, wielkość i kolor. Podstawową operacją wyko nywaną w trakcie budowy domku jest łączenie klocków. Jej przebieg uza leżniony jest od rodzaju materiału (np. inaczej łączy się klocki drewniane niż z tworzywa sztucznego). Reguł komponowania operacji łączenia klocków może być wiele. Najbardziej podstawowa polega na nakładaniu kolejnych warstw klocków na zakładkę, tj. w taki sposób, aby kolejne warstwy były przesunię te o połowę długości klocka. To co istotne, dobór materiału, operacji i reguł, związany jest ściśle z celem, który jest realizowany. Zauważmy również, że rodzaj materiału wyznacza zakres operacji, które można na nim wykonać, zaś operacje ograniczają pulę reguł ich komponowania w całość podporządkowaną realizacji celu.
10.4.2. Operacje i strategie Do lat 60. XX w. uważano, że myślenie można sprowadzić do dwóch grup operacji: analizy i syntezy (Blatt, Stein, 1960; Rubinsztejn, 1962). Analiza to proces dekompozycji złożonej całości na jej elementarne części. Na przykład badacz struktury myślenia posługuje się przede wszystkim tą operacją umysło wą, bowiem projektuje eksperymenty i docieka elementarnych składników czegoś złożonego. Synteza z kolei polega na łączeniu tych części w nową całość. Ów badacz myślenia, kiedy zgromadzi wystarczająco dużo danych, może za proponować pewien model struktury myślenia jako całości, opisując np. relacje zachodzące między jego składnikami. W tym wypadku badacz dokonuje zatem syntezy. Wyróżniano ponadto trzy operacje pochodne względem analizy i synte zy: porównywanie, abstrahowanie i uogólnianie (Kozielecki, 1997), ale słuszny wydaje się pogląd Berlyne’a (1969), że potencjalnie może istnieć nieskończenie wiele operacji. Ich rodzaj i układ jest specyficzny dla konkretnego zadania umysłowego, chociaż może być podobny w obrębie pewnej kategorii zadań. Na przykład Sternberg (1977a) wyróżnił pięć stałych operacji (nazwanych komponentami) procesu rozumowania przez analogię. Są one niezależne od materiału (formy i treści reprezentacji umysłowych), więc wspólne dla całej kategorii tego typu zadań (zob. rozdz. 10.5). Co więcej, niekiedy w ramach jednego zadania możliwe jest zastosowanie różnego rodzaju i układu operacji, które prowadzą do jego skutecznego wykonania. Są to tzw. strategie myślenia, najczęściej występujące w rozwiązywaniu problemów (zob. rozdz. 11), stoso wane ze względu na preferencje jednostki. Na przykład wiadomo, że zdanie egzaminu na studiach, może zostać zrealizowane na wiele sposobów, tj. dzięki różnym strategiom. Ze względu na wielość operacji umysłowych i różnorodność strategii, ich analiza odbywa się w ramach konkretnych zadań. Rezultaty tego typu badań nie mogą być zatem generalizowane w postaci ogólnych reguł myślenia. Badacze zainteresowani takimi regułami koncentrują się zatem nie na klasyfikacji operacji czy wyróżnianiu strategii, lecz na analizie ogólnych praw
438
Rozdział 10. Myślenie i rozumowanie
rządzących operacjami umysłowymi. Poniżej zaprezentujemy przykład tego rodzaju analiz, pochodzący z pracy Berlyne’a (1969). Według tego autora, w przebiegu procesu myślenia, jeśli przyjąć metaforę łańcucha operacji symbolicznych, wyróżnić można ogniwa procesu myślenia i operacje stanowiące podstawę ich łączenia (zob. ryc. 10.2). Ogniwami procesu myślenia są poszczególne stany wiedzy (mn), składające się na cały proces umysłowy. Przekształcenie jednego stanu w drugi dokonywane jest dzięki ope racjom. Wśród nich szczególną rolę pełnią operacje kluczowe, mające decy dujący wpływ na rozwiązanie zadania. Są one koniecznym warunkiem osiągnię cia celu, podczas gdy inne operacje nie są niezbędne. Odwołajmy się ponownie do zagadki sułtana z początku rozdziału. W procesie jej rozwiązywania można zaobserwować co najmniej dwie kluczowe operacje. Polegają one na transfor macji dostarczonych wskazówek na informacje użyteczne dla osiągnięcia po stępu w wykonywaniu zadania. Wydaje się, że jest to szczególnie trudne w przy padku wskazówki drugiej i trzeciej. Dzięki tej transformacji informacja pozornie absurdalna zostaje przekształcona w przesłankę umożliwiającą przeprowadze nie rutynowego dowodu matematycznego.
Ryc. 10.2. Łańcuch operacji w procesie myślenia. Oznaczenia: mn - stan wiedzy, 0n - operacja przekształcenia. Stan mi posiada dwa rozgałęzia (m2 i m 3), uzyskane dzięki przekształceniu >i; szarym kolorem oznaczono potencjalne stany wiedzy uzyskane dzięki takiemu rozgałęzieniu (za: Berlyne, 1969).
Łańcuch operacji symbolicznych, składający się na proces myślenia, posiada dwie charakterystyczne właściwości: pętle i rozgałęzienia. Pętle są to operacje nie powodujące zmiany w jego ogniwach. Pętla pierwszego rodzaju polega na cofnięciu się do poprzedniego stanu (
2 -+ m4 ->■ 4>3), spowodowane np. oceną, że dany kierunek myślenia jest niewłaściwy i należy powrócić do ostatniego mo mentu, który oceniamy jako poprawny. Drugi rodzaj pętli polega na wykonaniu operacji tożsamościowej (0O), co z samej jej definicji nie powoduje żadnej
10.4. Struktura myślenia
439
zmiany. Z kolei rozgałęzienia powstają wówczas, gdy w wyniku jakiejś operacji mogą zostać wypracowane różne stany wiedzy, w zależności od materiału bę dącego treścią danej operacji. Rozgałęzienia łańcucha decydują o alternatywnym charakterze myślenia. Przykładowo, w procesie decyzyjnym, stanowiącym podstawę diagnozy medycznej, od wskazówek uzyskanych w kolejnych krokach diagnostycznych (operacjach dostarczania informacji), zależą dalsze działania: dalsza diagnoza, czy - docelowo - forma terapii. Systemy wspomagające diagno zę kliniczną mają postać rozgałęzionych drzew decyzyjnych. »■t
10.4.3. Reguły, algorytmy i heurystyki Reguły to - jak wspomniano - sposoby porządkowania łańcucha operacji umysłowych, składających się na proces myślenia. W przypadku myślenia ukie runkowanego reguły odpowiadają nie tylko za uporządkowanie, ale również za jego kierunek, którym jest podążanie do założonego celu. W przypadku myślenia autystycznego nie można mówić o podporządkowaniu procesu myślenia żad nemu celowi. Mimo to myślenie autystyczne przebiega według pewnych reguł, determinujących jego przebieg. Próbowano wykazać, że myśleniem auty stycznym rządzą tzw. prawa kojarzenia, np. prawo podobieństwa (wróbel ko jarzy się z sikorką), prawo kontrastu (ciężkie kojarzy się z lekkim) lub prawo mediacji (jeśli książka kojarzy się z nauką, a nauka kojarzy się ze szkołą, to książka kojarzy się ze szkołą). Najogólniejszy podział reguł rządzących ludzkim myśleniem odwołuje się do pojęcia algorytmu i heurystyki. Algorytm jest jednoznacznym i niezawodnym przepisem działania, zawierającym skończoną sekwencję operacji, jaką należy wykonać, aby osiągnąć określony cel. Przykładowo, niektóre zadania matema tyczne i logiczne można rozwiązać z pomocą algorytmów, które zostały sfor malizowane w postaci wzorów matematycznych. Tak więc sumowanie wartości koszyka zakupów w supermarkecie, jak i obliczanie wytrzymałości mostu, to działania regulowane przez mniej lub bardziej złożone algorytmy. Każde za danie, które ma być wykonane przez komputer, musi być uprzednio przełożone w umyśle programisty na algorytm, wyrażony najpierw matematycznie, a następ nie w konkretnym języku oprogramowania. Każdy algorytm przejawia kilka istotnych właściwości. Przede wszystkim jest niezawodny, a więc jego zasto sowanie prowadzi zawsze do uzyskania jednoznacznego rezultatu w danej kla sie zadań. Jest też dobrze określony, co oznacza, że obejmuje jednoznaczną procedurę postępowania, ściśle określoną sekwencję operacji, którą należy wykonać, aby osiągnąć właściwy rezultat. Algorytm ma charakter masowy, tj. można go z powodzeniem zastosować do każdego problemu z danej klasy. I wreszcie, jest zestawem sztywnych reguł: brak choćby niewielkiej części da nych albo błąd realizacji jakichkolwiek operacji przewidzianych algorytmem, powodują, że uzyskany wynik jest albo błędny, albo w ogóle niemożliwy do uzyskania. Dwie pierwsze właściwości algorytmów, tj. niezawodność i jednoznacz ność, są bardzo nęcące. Odnalezienie algorytmów dla złożonych problemów, z którymi stykamy się na co dzień, pozwoliłoby na redukcję niepewności zwią zanej z poprawnością stosowanych rozwiązań. Dlatego podejmuje się próby
440
Rozdział 10. Myślenie i rozumowanie
algorytmizacji takich obszarów życia, które w gruncie rzeczy nie są dobrze określone, np. kontaktów z klientami w cali center, albo produkcji posiłków w restauracjach typu fast-food. Nazywa się to standardem obsługi, ale standardy tego rodzaju są nadmiernie sztywne. Wszelkie nietypowe, nieprzewidziane algorytmem problemy klientów z założenia nie będą mogły zostać rozwiązane. Jeden z autorów niniejszej książki chciał dowiedzieć się w cali center pewnej firmy ubezpieczeniowej, czy w ofercie ubezpieczeń motoryzacyjnych są tzw. pakiety obejmujące OC, AC i NW. Cena pakietu zwykle jest znacznie niższa niż każde z ubezpieczeń z osobna. Nie mógł jednak zadać tego pytania przez pierw szych 10 minut rozmowy, bowiem „standard obsługi” wymagał uzyskania od klienta wielu szczegółowych informacji. Po ich podaniu okazało się, że firma nie miała wówczas żadnych pakietów w swojej ofercie. Próba algorytmizacji zjawisk, które ludzie skutecznie rozwiązują innymi metodami, wiąże się albo z nadmiernym ich uproszczeniem bądź strywializowaniem (np. algorytm obsługi klienta), albo z nadmiernym ich skomplikowa niem (algorytm gry w szachy). W takich sytuacjach ludzie zwyczajowo nie stosują algorytmów, lecz tzw. heurystyki. Heurystyka jest nieformalną, spekulatywną, uproszczoną albo skrótową metodą rozwiązywania problemów lub podejmowania decyzji. Ze swojej natury jest więc zawodna i bardziej ryzykowna w porównaniu do algorytmu. Nie gwarantuje, że zadanie uda się rozwiązać, a jedynie podpowiada, jaką metodą można je rozwiązywać. Kolejne użycie heurystyki w niezmienionej postaci w danej klasie zadań prowadzi zazwyczaj do innego rezultatu, a niekiedy może okazać się zupełnie nieskuteczne. O ile konstrukcja mostu sprowadzalna jest do wyrażonych wzorami algorytmów, zapewniających np. pożądaną wytrzymałość, o tyle opracowanie go od strony wizualno-artystycznej da się ująć jedynie pewnymi regułami heurystycznymi. Przykładowo, heurystyka: „rozejrzyj się w okolicy projektowanego mostu, może da się «twórczo» nawiązać do jakiegoś elementu otoczenia”, może doprowadzić do rewelacyjnego pomysłu, albo okazać się całkiem nieprzydatna. Heurystyka jest więc słabo określona, ale też ma zastosowanie w przypadku problemów, których nie da się jednoznacznie i kompleksowo określić. Takimi problemami są zazwyczaj zadania wymagające myślenia twórczego. Inne przypadki stosowania heurystyk wiążą się sytuacjami, których złożoność powoduje konieczność stosowania uproszczeń. Mogą być wówczas co najmniej dwa powody użycia heurystyki. Po pierwsze, kiedy złożoność sytuacji uniemożliwia wykonanie wszystkich operacji przewidzianych algoryt mem. Przykładowo, w grze w szachy wyobrażenie sobie wszelkich kombinacji ruchów możliwych do wykonania w danej sytuacji jest - poza początkiem i końcem gry - niewykonalne. Inna sprawa, że większość kombinacji byłaby absurdalna, więc nawet nie należałoby wykonywać takiej kompleksowej symulacji. Szachiści stosują zatem heurystyki, które akurat w tym przypadku, będąc uproszczeniami w sensie obliczeniowym, charakteryzują się dużą zło żonością. Heurystyki rozwiązywania problemów opisano szerzej w rozdz. 11.4. Po drugie, stosujemy uproszczenia nie z powodu naszej ograniczonej wydol ności poznawczej, ale z powodu ekonomii myślenia. Podejmując decyzje zaku powe moglibyśmy stosować algorytmy, albo bardzo dobre heurystyki kompen sacyjne, jednak w większości przypadków byłoby to nieekonomiczne. Dyspo nujemy całą gamą bardzo prostych heurystyk podejmowania decyzji, które
10.4. Struktura myślenia
441
w tych sytuacjach prowadzą do zadowalającego rezultatu. Korzyści wynikające z ich użycia, tj. oszczędność czasu i wysiłku poznawczego, są większe, niż koszty związane z ryzykiem wynikającym z uproszczenia. Przykładowo, jeśli zastanawiamy się nad zakupem kilku akcesoriów do telefonu komórkowego w jednej z kilku sieci sprzedaży internetowej, musimy wziąć pod uwagę, obok jakości produktów, ich cenę oraz cenę przesyłld. Możemy, korzystając z prostego algorytmu zsumować i porównać wszelkie koszty, ale zazwyczaj nie jest to potrzebne. Jeśli koszt jednego produktu X w firmie A jest wyższy o 20 zł niż w firmie B (ceny pozostałych produktów są zbliżone), a koszt przesyłki różni się w zakresie 4 zł, to rzecz jasna druga opcja będzie tańsza. Żeby to ocenić nie trzeba wykonywać dokładnych obliczeń. Najważniejsze heurystyki podejmowa nia decyzji opisano w rozdz. 12.1. Niezależnie od podziału reguł myślenia na algorytmiczne i heurystyczne poszukiwano bardziej szczegółowych reguł w procesie myślenia. Berlyne (1969), opierając się na pracy Birkhoffa i Mac Lane (1953), wyróżnił cztery podstawowe reguły myślenia, tworzące grupę transformacji. Obok kojarzenia, transformacje uznaje się za podstawę tworzenia łańcucha zachowań symbolicz nych. Pierwsza reguła według Berlyne’a - składania transformacji - zakłada, że jeśli zastosujemy w określonym porządku dwie transformacje 4ń i 02, to musi istnieć transformacja 0 3, która jest równoważna im obu. Zatem 0 3 = (02 4)i)Innymi słowy, zakłada się istnienie takiej transformacji, która prowadzi do identycznego wyniku, jak dwie jej składowe. Berlyne widzi w tej regule pod stawę wyboru, bowiem są co najmniej dwie drogi osiągnięcia określonego celu: dzięki złożeniu dwóch lub więcej - zazwyczaj prostszych - operacji, albo dzięki jednej, ale bardziej złożonej. Przykładowo, poruszając się w terenie, możemy pójść 1 km na północ, a następnie 2,4 km na wschód. Jest to równoważne przejściu 2,6 km ku północnemu wschodowi. Druga reguła - transformacji tożsamościowej albo zerowej - oznacza przekształcenie nie prowadzące do jakiejkolwiek zmiany. Transformacja tożsamościowa 0 O, złożona z dowolną inną transformacją 0i, daje taki rezultat, jak zastosowanie wyłącznie 0j. Zatem (4>i u a ich łączne zastosowanie daje wynik transformacji tożsa mościowej 0o* W tym wypadku nie jest bez znaczenia kolejność zastosowanych transformacji 0 P i 0i, chociaż ich złożenie daje ten sam rezultat. Przykładowo, jeśli z punktu A pójdziemy na wschód 1 km, to odwrotnością tego działania będzie przejście 1 km na zachód. Podobnie jak przejście 1 km na zachód można odwrócić idąc 1 km na wschód. W obu przypadkach powracamy do punktu A. Różnica jest jednak taka, że punkty pośrednie (1 km na wschód od A, 1 km na zachód od A) i przemierzona droga (nie w sensie odległości, a jej rodzaju) są różne. W myśleniu człowieka możemy dzięki odwracalności transformacji „anulować” błędne przekształcenie, powracając do stanu sprzed owego błędu. Reguła ta stanowi więc podstawę symulacyjnej funkcji myślenia, o której pisaliśmy na początku rozdziału, pozwalającej na mentalne testowanie różnych
442
Rozdział 10. Myślenie i rozumowanie
scenariuszy działania w określonej sytuacji. Czwartą regułą myślenia jest zasada łączenia transformacji, wedle której dowolne trzy transformacje i >2 i s, połączone dowolnie parami na zasadzie składania transformacji, dają ten sam rezultat. Zatem (<£3 <^2) >i = 4>3 (<£2 >1), gdzie (fo fc ) oznacza złożoną trans formację, równoważną sekwencji >2 i <¡>3 , a ((¡>2 i i 4>2- Zasada działa pod warunkiem, że transformacje pochodzą z jednej kategorii, a najlepiej jeśli są identyczne, np. (2 + 4) + 6 = 2 + (4 + 6). W przypadku różnych transformacji przestaje być prawdziwa, np. (2 • 4) + 6 ^ 2 • (4 + 6). Pomimo znacznego stopnia ogólności powyższych reguł w zasadzie można wskazać przypadki ograniczonego ich zastosowania. Nawet odwracalność transformacji która, np. zdaniem Piageta, jest żelazną regułą myślenia - można podważyć. Jeśli stan A przekształcimy w stan A’, to po powrocie do stanu A wiemy, jakie są konsekwencje wykonanego przekształcenia. Jesteśmy więc bogatsi o wiedzę, która może istotnie dookreślać sytuację problemową, czy też eliminować pewną grupę przekształceń. W zasadzie nie jest to już stan A. Do innych ujęć reguł myślenia (np. heurystyk decyzyjnych czy metod rozwiązywa nia problemów) powrócimy jeszcze w dalszych rozdziałach podręcznika.
10.4.4. M yślenie a in n e złożone procesy poznaw cze Cała część trzecia podręcznika poświęcona jest trzem, tradycyjnie osobno ujmowanym obszarom złożonej aktywności poznawczej człowieka (higher-order cognition): rozumowaniu, rozwiązywaniu problemów i podejmowaniu decyzji. Każdy z nich znajduje się w ścisłej relacji do procesów myślenia (zob. ryc. 10.3), których badanie stanowi punkt wyjścia do przedstawienia propozycji teoretycz nych i badań we wspomnianych trzech obszarach. W większości wypadków myślenie nie odbywa się w próżni: jego celem jest rozwiązanie problemu albo podjęcie decyzji, a specyficzną jego formą, prowadzącą do formułowania wniosków, jest rozumowanie. Dlatego najczęściej rozwiązywanie problemów i podejmowanie decyzji angażuje myślenie, niekiedy również rozumowanie, Wyjątki od powyższej zasady nie są jednak odosobnione. Po pierwsze, myślenie nie zawsze jest ukierunkowane na rozwiązanie problemu czy podjęcie decyzji. Wszelkie przypadki myślenia autystycznego oraz pewne szczególne przypadki myślenia reproduktywnego (np. odtworzenie posiadanej wiedzy, nie mające związku z jakimkolwiek problemem czy decyzją) stanowią przykłady tego typu wyjątków. Po drugie, zarówno rozwiązywanie problemów, jak i podejmowanie decyzji, zwykle wymagające myślenia, niekiedy może się bez niego obejść, Przypadkowe zestawianie elementów (manualne albo mentalne) czy inne formy metody prób i błędów mogą prowadzić do rozwiązania problemu bez udziału procesów myślenia. Również „decyzja” dokonana na podstawie przypadkowego wyboru, np. gatunku sera w sklepie czy koszuli z szafy, rozwiązuje określony problem, ale nie wymaga rozpatrywania i porównywania dostępnych opcji wyboru. Zauważmy, że tzw. wybory nawykowe również nie wymagają myślenia, bowiem odwołujemy się do swoich lub cudzych przyzwyczajeń, nie analizując dostępnych opcji. Są to przykłady podejmowania decyzji, które służą rozwiąza niu problemu, ale nie angażują myślenia. Możliwy jest również przypadek
; ■
i
i
j j |
:
10.4. Struktura myślenia
443
odwrotny - podejmowanie decyzji angażuje myślenie, ale ponieważ nie jest to myślenie ukierunkowane, nie polega na rozwiązywaniu problemu. Tak się dzieje w oderwanych spekulacjach - „gdybaniu” czy „myśleniu o niebieskich mig dałach” - które mogą wymagać podejmowania pewnych decyzji. Z punktu wi dzenia teorii myślenia, decyzje podejmuje się na podstawie wyboru rozgałęzie nia w łańcuchu myślowym. Myślenie autystyczne charakteryzuje się szczególnie bogatym zakresem rozgałęzień tego typu, więc może wymagać podjęcia bardzo wielu decyzji.
Ryc. 10.3. Relacje między myśleniem a innymi złożonymi procesami poznawczymi: rozumowaniem, rozwiązywaniem problemów i podejmowaniem decyzji (oprać, własne).
Na ryc. 10.3 rozumowanie ulokowane zostało w części wspólnej, między myśleniem, rozwiązywaniem problemów i podejmowaniem decyzji. Rozumowa nie jest specyficzną formą myślenia, czyli jego podkategorią. Dlatego też można sobie wyobrazić, że zarówno rozwiązywanie problemów, jak i podejmowanie decyzji, może przebiegać na drodze rozumowania. Częściej jednak tak się nie dzieje, bowiem w obu wypadkach odwołujemy się do uproszczonych heurystyk (zob. rozdz. 11 i 12). Interesująca wydaje się również możliwość, w której rozumowanie jest elementem myślenia autystycznego. Można bowiem wy ciągać logiczne wnioski dedukcyjne z przesłanek, czy używać analogii bądź metafor, nawet jeśli aktywność umysłowa polega na oderwanych od rzeczywis tości spekulacjach. George Lucas, autor sagi „Gwiezdnych wojen”, wprowadził do swojego świata wiele reguł niezgodnych z prawami fizyki4 , do czego sam się 4 Na przykład podróż z prędkością światła i niemal natychmiastowe przyspieszenie do prędkości światła bez skutków przeciążenia dla pasażerów, a może podróż w tunelach czasoprzestrzennych; antygrawitacja; plazma zgromadzona w rękojeści gwiezdnych mieczy itd.
444
Rozdział 10. Myślenie i rozumowanie
przyznaje. Można zatem uznać jego wizję za oderwaną od rzeczywistości. Jednak raz wprowadzone reguły nie zostały nigdy złamane, a ich implikacje stosowane są konsekwentnie. Wszystko to sprawia, że wizja Lukasa jest logiczna; dziwaczne reguły stanowią przesłanki poprawnego procesu wniosko wania. Podział złożonych procesów poznawczych na wspomniane trzy obszary jest zabiegiem zaledwie porządkującym i raczej upraszczającym rzeczywistość. Przykładowo, wykorzystanie analogii w myśleniu jest równie silnie reprezento wane zarówno w obszarze rozumowania (rozumowanie przez analogię), jak i rozwiązywania problemów (transfer przez analogię). Dlatego też w kolejnych rozdziałach wspomniane obszary przeplatają się zgodnie z ujęciami dominują cymi w literaturze przedmiotu.
10.5. Rozumowanie dedukcyjne 10.5.1. Dedukcja i indukcja Rozumowanie to formułowanie wniosków na podstawie przesłanek. Wyróżnia my dwie podstawowe formy rozumowania: dedukcyjne i indukcyjne. Rozumo wanie dedukcyjne polega na wyciąganiu wniosków z przesłanek z wykorzysta niem formalnych reguł logiki. Na przykład przesłanki mogą przybrać postać: Adam jest wyższy od Bartka, Bartek jest wyższy od Cezarego, a wniosek: Zatem, Adam jest wyższy od Cezarego. Wniosek wyciągnięty dzięki dedukcji jest niezawodny, bowiem właściwie stosując reguły logiki zawsze dochodzimy do rzetelnych wniosków. Wniosek dedukcyjny jest ponadto efektem zastosowania pewnej ogólnej reguły; w po wyższym przykładzie jest to reguła przechodniości (jeśli A > B i B > C , t o A > C). Jednak nawet jeśli poprawnie zastosujemy reguły logiki, niekoniecznie uzyska my wniosek, który jest prawdziwy, czyli zgodny ze stanem faktycznym. Przykła dowo: Żaden ssak nie może oddychać pod wodą, Niektórzy ludzie, posługując się akwalungiem, oddychają pod wodą, więc Niektórzy ludzie nie są ssakami. Powyższy wniosek jest prawidłowy w świetle reguł logiki, ale nie jest zgodny z prawdą. Należy więc odróżnić logiczną poprawność wniosku, wyni kającą z rzetelnego zastosowania reguł wnioskowania, od jego prawdziwości, czyli zgodności ze stanem faktycznym. Prawdziwość wniosku zależy od praw dziwości przesłanek. Uwzględniając możliwość oddychania pod wodą z użyciem akwalungu, pierwszą przesłankę należy uznać za nieprawdziwą, podobnie jak wniosek, mimo poprawności samego rozumowania. Możliwa rozbieżność
10.5. Rozumowanie dedukcyjne
445
między logiczną rzetelnością a materialną prawdziwością wniosku dedukcyj nego wynika z faktu, że rozumowanie dedukcyjne nie prowadzi do uzyskania nowej wiedzy. Cala wiedza zawarta jest bowiem w przesłankach, a rozumowanie ma na celu jej wydobycie i zwerbalizowanie. W badaniach nad rozumowaniem dedukcyjnym współcześnie używa się dwóch rodzajów zadań: wymagających ewaluacji konkluzji oraz wymagających generowania konkluzji. Różnica polega na tym, że w pierwszym przypadku osobie badanej prezentuje się zarówno przesłanki, jak i wniosek (albo różne wnioski), a jej zadanie polega na ocenie prawidłowości konkluzji. Ocena ta obejmuje trzy możliwości: (1) wniosek koniecznie wynika z przesłanek, (2) wniosek jest możliwy w świetle przesłanek i (3) wniosek jest błędny w świetle przesłanek. Przykładowo: Niektóre A są B. Oceń, który z poniższych wniosków jest konieczny, możliwy albo błędny. (1) Wszystkie A są B. (2) Żadne A nie są B. (3) Niektóre A nie są B. (4) Wszystkie B są A. (5) Niektóre B są A. (6) Żadne B nie są A. (7) Niektóre B nie są A. Z tej przesłanki wynika tylko jeden konieczny wniosek: niektóre B są A (5). Wnioski (1), (3), (4) i (7) są możliwe, ale nie wynikają w sposób konieczny z przesłanek, a wnioski (2) i (6) są błędne. Drugi typ zadań polega na tym, że osoba badana otrzymuje przesłanki, a jej zadanie polega na samodzielnym generowaniu wniosków. W obu przypadkach punktem odniesienia są reguły logiki formalnej, które pozwalają na ocenę poprawności wnioskowania oraz dają wgląd w specyficzne błędy, które popeł niają osoby badane. Czytelników zainteresowanych systematycznym, a zarazem przystępnym przeglądem tych reguł, odsyłamy do polskojęzycznych prac Marii Lewickiej (1993, 2000) oraz bardzo bogatej, obcojęzycznej literatury przedmio tu (np. Evans, 1982, 2002; Evans, Newstead, Byrne, 1993; Manktelow, 1999, Wason, Johnson-Laird, 1972). Rozumowanie indukcyjne polega natomiast na wyprowadzaniu nowych twierdzeń lub hipotez na podstawie skończonej liczby zgromadzonych przypad ków, np. obserwacji. Analiza posiadanych przesłanek szczegółowych prowadzi w drodze indukcji - do wykrycia i sformułowania pewnych prawidłowości ogólnych, które są przedmiotem twierdzenia. Przykładowo, jeśli z poczynionych n obserwacji wynika, że wszystkie łabędzie są białe, można wyciągnąć wniosek, że jest to cecha dystynktywna gatunku łabędzia. Wniosek ten nie uwzględnia jednak możliwości zaobserwowania w przyszłości gatunku łabędzi o innym kolorze, który może żyć w środowisku, do którego ludzie w momencie formułowania powyższego wniosku nie dotarli. Tak właśnie się stało, kiedy odnaleziono enklawę czarnych łabędzi. Rozumowanie prowadzące do tego rodzaju wniosków ma charakter indukcyjny - polega na sformułowaniu wniosku ogólnego na podstawie skończonej liczby obserwacji. W świetle logiki wniosek
446
Rozdział 10. Myślenie i rozumowanie
taki jest niepewny i często nic nie da się zrobić, aby go uprawomocnić. Nie można zaobserwować wszystkich łabędzi, ale też nie ma innej drogi do sformu łowania wniosku, który byłby pewny i niezawodny. Wnioskowanie indukcyjne może więc okazać się zawodne. Wystarczy jeden zaobserwowany przypadek łabędzia innego niż w kolorze białym, a sformułowany wniosek trzeba będzie odrzucić. Oczywiście taki wniosek mógłby zostać sformułowany w wykorzysta niem małego kwantyfikatora: „niektóre łabędzie są białe”, co sprawiłoby, że konkluzja byłaby poprawna (a nawet prawdziwa). Jednak z praktycznego punktu widzenia wnioski takie niczemu nie służą, bowiem praktyka oczekuje wniosków generalnych, dotyczących prawidłowości zawsze obowiązujących. Czemu zatem służy indukcja, skoro jest tak zawodna? Rozumowanie in dukcyjne dostarcza nowych informacji; jest sposobem nabywania nowej wie dzy. Służy formułowaniu wniosków dotyczących relacji między obserwowanymi zmiennymi, w tym związków przyczynowych {Jeśli... to...), albo prawdopo dobnych - w świetle posiadanych informacji - hipotez (por. Holyoak, Nisbett, 1988). Psychologów poznawczych interesuje raczej deskryptywny niż normatywny poziom analizy rozumowania. Najogólniej mówiąc, chodzi o pytanie, jak przebiega proces umysłowy w trakcie rozumowania, szczególnie w przypadku osób, które nie mają specjalistycznego przygotowania w zakresie logiki for malnej; jest to zatem implementacja drugiego z kluczowych pytań psychologii poznawczej według Pylyshyna (1973; por. rozdz. 2.1): pytania o przebieg pro cesów poznawczych leżących u podłoża określonego zjawiska. Według Evansa (1991), kierunki badań nad rozumowaniem można powią zać z trzema szczegółowymi zagadnieniami. Pierwsze dotyczy problemu kom petencji w zakresie rozumowania, który prezentują osoby bez specjalnego wykształcenia w zakresie logiki. Jest to pytanie, czy ludzie z natury potrafią rozumować logicznie, czy też jest to zdolność nabyta dopiero w trakcie edukacji. Drugi kierunek badań polega na identyfikacji systematycznych tendencji (biases) w rozumowaniu, szczególnie tych, które powodują, że ludzie popełniają błędy logiczne. Nie chodzi o przypadkowe pomyłki, lecz o błędy systematyczne i uniwersalne, wskazujące na pewne tendencje w myśleniu (por. Lewicka, 1993; Nęcka, 1996). Są one właściwe dla większości ludzi i nie wynikają z niskiego poziomu zdolności intelektualnych. Trzeci problem, zdaniem Evansa, to wpływ zawartości zadania {content) i kontekstu {context) na rozumowanie. W klasycznych badaniach nad rozumowaniem dedukcyjnym stosuje się zadania w postaci abstrakcyjnej (np. „wszystkie A są B, niektóre B są C, zatem...”), co pozwala na uchwycenie „czystych” właściwości procesu umysłowego. Analizie podlegają wówczas charakterystyki rozumowania, które są niezależne od konkretnej dziedziny (wiedzy, doświadczenia, zawartości treściowej zadań, kontekstu wnioskowania). Jednak w podejściu deskryptywnym konieczne wydaje się uwzględnienie zarówno treści, jak i kontekstu zadań logicznych, które człowiek rozwiązuje w życiu codziennym. Okazuje się, że czynniki te zdecydowanie poprawiają racjonalność naszego myślenia. Te trzy zagadnienia stanowią ramę analizy dwóch rodzajów rozumowania: dedukcyj nego i indukcyjnego.
10.5. Rozumowanie dedukcyjne
447
10.5.2. Rozumowanie sylogistyczne Sylogizmy są schematami wnioskowania dedukcyjnego, w których wniosek wy ciąga się na podstawie dwóch przestanek. Sylogizm tworzą obie przestanki (większa i mniejsza) wraz z wnioskiem. Każda z przesłanek składa się z dwóch terminów połączonych relacją. Pierwsza przesłanka składa się z terminu więk szego i środkowego, a druga z terminu środkowego i mniejszego. Termin większy jest orzecznikiem wniosku, tzw. predykatem, a termin mniejszy podmiotem. Z kolei termin środkowy jest ogniwem pośrednim, pozwalającym na ustalenie relacji między predykatem i podmiotem, co jest przedmiotem wnioskowania. Termin środkowy powtarza się zarówno w przesłance większej, jak i mniejszej. Przykładowo, w sylogizmie: (1) Adam jest wyższy od Bartka, (2) Bartek jest wyższy od Cezarego, Zatem, Adam jest wyższy od Cezarego, (1) to przesłanka większa, (2) - przesłanka mniejsza, Adam - termin większy (orzecznik), Bartek - termin środkowy, Cezary - termin mniejszy (podmiot). W sylogizmie liniowym związek między wszystkimi trzema terminami ma charakter liniowy i dotyczy porównania natężenia (ilościowego albo jakościo wego) jakiejś właściwości użytych terminów. W powyższym przykładzie, będącym sylogizmem liniowym, porównywaną właściwością jest wzrost trzech osób. Wniosek: „Adam jest wyższy od Cezarego”, wynika logicznie z przesłanek i jest prawomocny. Gdyby jednak sylogizm miał następującą postać: Adam jest wyższy od Bartka, Bartek jest niższy od Cezarego, Który z panów jest najwyższy?, nie można byłoby wydedukować logicznego i prawomocnego wniosku. Z prze słanek wynika wyłącznie to, kto jest najniższy, ale nie wiadomo, który z panów: Adam czy Cezary jest wyższy. Sylogizmy kategoryczne, formalnie podobne do liniowych, orzekają o przynależności użytych w nich terminów do określonej kategorii. Przyna leżność do kategorii, wyrażona w przesłankach, dookreślona jest kwantyfikatorem wielkim albo małym5 i ma postać twierdzącą albo przeczącą. Z kombinacji tych dwóch właściwości sylogizmów powstają cztery rodzaje przesłanek: ogólno-twierdząca „a” (affirmo): wszystkie A są B (np. wszyscy psychologowie są uczciwi), ogólno-przecząca „e” (nego): żadne A nie są B (np. żaden psycholog nie jest piłkarzem), szczegółowo-twierdząca „i” (affirmo): niektóre A są B (np. niektórzy psychologowie są chorowici), i szczegółowo-przecząca „o” (nego): niektóre A nie są B (np. niektórzy psychologowie nie są komunikatywni). Ter min większy i mniejszy połączone są relacją przynależności do pewnej kategorii, a zadanie najczęściej polega na ocenie, czy relacja, która jest ujęta we wniosku, wynika z przesłanek w sposób konieczny. Jeśli tak, wówczas sylogizm jest 5 Duży kwantyfikator to wyrażenie typu „wszystkie”, „żaden” itp. Na przykład zdanie: „Wszystkie strusie są ptakami, a żaden struś nie jest ssakiem”, zawiera dwa duże kwantyfikatory. Natomiast mały kwantyfikator to wyrażenie typu „niektóre” itp., np.: „Niektóre ssaki mają futro”.
448
Rozdział 10. Myślenie i rozumowanie
niezawodny. Jeśli relacja ujęta we wniosku jest zaledwie możliwa, mamy wów czas do czynienia z sylogizmem zawodnym. Na podstawie przesłanek: „Niektó rzy ludzie są interesujący” oraz „Żaden artysta nie jest interesujący” można sformułować osiem wniosków. Tylko jeden z nich jest niezawodny: „Niektórzy ludzie nie są artystami” (por. ryc. 10.4). Inny, narzucający się wniosek: „Niektórzy ludzie są artystami”, mimo że prawdziwy, w świetle logiki nie jest bezwarunkowo pewny (por. ryc. 10.4). Spośród istniejących 256 sylogizmów (dwie przesłanki + jeden wniosek) 24 spełnia kryteria niezawodności. Reszta jest albo zawodna, albo błędna.
Ryc. 10.4. Obrazowe przedstawienie relacji między zbiorami, ułatwiające sformułowanie wniosku sylogistycznego (oprać, własne). Widzimy dwa uprawnione sposoby reprezentacji przesłanek: „Niektórzy ludzie są interesujący” i „Żaden artysta nie jest interesujący”. Wniosek: „Niektórzy ludzie są artystami” jest możliwy (prawa strona), ale niekonieczny (lewa strona). Sylogizm jest zatem niekonkluzywny. Zauważmy, że oba sposoby reprezentacji przesłanek są niezgodne z wiedzą potoczą, ale poprawne w świetle informacji zawartych w przesłankach (nie ma w nich mowy o relacji ludzie artyści).
Wykorzystanie abstrakcyjnych zadań wymagających rozumowania pozwala badać kompetencje osób badanych, neutralizując wpływ czynnika doświadcze nia. Tego typu postępowanie, charakterystyczne dla wczesnych badań prowa dzonych w nurcie psychologii eksperymentalnej, prowadziło do ponurych wniosków. Okazywało się mianowicie, że ludzie niewyedukowani w zakresie logiki rozwiązują tego typu zadania z dużą liczbą błędów, czyli że myślą nie logicznie, a zatem są nieracjonalni. Wniosek, iż ludzie zwykle myślą nielogicznie jest uzasadniony o tyle, o ile jako model normatywny stosujemy kryteria logiki
10.5. Rozumowanie dedukcyjne
449
formalnej. Inny model normatywny, np. z zakresu logiki wielowartościowej (dopuszczającej więcej niż dwie wartości logiczne - prawda albo fałsz), generuje inne kryteria oceny poprawności rozumowania człowieka. Ale nawet jeśli przyjąć logikę formalną jako model normatywny, wyniki badań niekoniecznie prowadzą do wniosku o braku racjonalności. Jeśli uwzględnimy treść i kontekst wnioskowania oraz doświadczenie indywidualne, a punktem odniesienia będzie efektywność rozumowania (np. trafność przewidywań czynionych na podstawie wnioskowania), wtedy okaże się, że nasze myślenie jest znacznie bardziej racjonalne, niż można by sądzić na podstawie powierzchownych ocen (zob. rozdz. 10.5.4 i 10.6.3). Racjonalność naszego myślenia wiąże się z adaptacją do wymagań środowiska, które rzadko za punkt odniesienia bierze logikę formalną. Ponadto wszelkie uproszczenia, a nawet błędy w myśleniu, mogą być racjonalne (nawet jeśli nie są zgodne z regułami logiki), jeśli prowadzą do poprawnych i dopasowanych do sytuacji rozwiązań. Jest to możliwe dzięki zastosowaniu prostych heurystyk, które oprócz wspomnianego dopasowania, są ponadto ekonomiczne. Jednak znaczna część badaczy, konstruując swoje eksperymenty laboratoryjne, tak dobiera zadania, że te efektywne heurystyki zawodzą. Błędy należy więc uznać raczej za wyjątek, niż ogólną regułę rządzącą uprawianym przez ludzi rozumowaniem. 10.5.3. Błędy rozumowania sylogistycznego Błędy w rozumowaniu, o których już kilkakrotnie wspominano, są specyficzne dla różnych jego rodzajów, jednak niektórzy badacze wyróżniają również błędy natury ogólnej. Najczęściej chodzi o błędy polegające na zastosowaniu trybu zawodnego jako niezawodnego i - rzadziej - odwrotnie. Jeśli sylogizm jest za wodny, nie można z całą pewnością orzec żadnego wniosku. Zadanie jest wówczas nierozstrzygalne i jedyną uprawnioną odpowiedzią jest: „nie wiado mo” albo „nie można tego stwierdzić”. Tymczasem ludzie dość często formułują albo akceptują wnioski, które im się podsunie, mimo zawodności sylogizmu, pod warunkiem, że wniosek wydaje im się prawdopodobny, zgodny ze stanem fak tycznym lub wiedzą ogólną. Na przykład wniosek: „Niektórzy ludzie są artysta mi”, mimo że nie wynika w sposób konieczny z przesłanek, może być błędnie uznany za logicznie uprawniony (ryc. 10.4). Specyficzne błędy popełniane w rozumowaniu sylogistycznym, znane od dawna, dotyczą dwóch efektów: efektu atmosfery (atmosphere effect) i efektu inwersji przesłanek (invalid conversion effect). Efekt atmosfery (Woodworth, Sells, 1935) dotyczy błędów polegających na tendencji osób badanych do generowania wniosków na podstawie atmosfery tworzonej przez kwantyfikatory zawarte w przesłankach. Badani będą skłonni częściej używać określonego kwantyfikatora we wniosku, jeśli pojawia się on w obu przesłankach jednocześnie, np.: Wszystkie A są B, Wszystkie C są B, Zatem, wszystkie A są C. Powyższy wniosek jest zawodny, podobnie zresztą jak każdy inny wyciągnięty z tych przesłanek. Oznacza to, że wszystkie wnioski, które można
450
Rozdział 10. Myślenie i rozumowanie
wyciągnąć z przesłanek, są w tym przypadku niekonkluzywne. Przeanalizujmy przykłady tego sylogizmu, ale z wykorzystaniem pojęć naturalnych:
j j
Wszystkie płoty w Zielonkach są zielone, Wszystkie organizmy zawierające chlorofil są zielone, Zatem, wszystkie płoty w Zielonkach są organizmami zawierającymi chlorofil,
| J i
Wszyscy uczeni są dobrze wykształceni, Wszyscy eksperci są dobrze wykształceni, Zatem, wszyscy uczeni są ekspertami.
j
albo
W pierwszym przykładzie wniosek jest całkowicie fałszywy, a w drugim jest (raczej) prawdziwy, ale wyłącznie dzięki specyficznej treści przesłanek. Być może w drugim przypadku szybciej widzielibyśmy kwantyfikator szczegółowy (niektórzy uczeni są ekspertami), ale - jak twierdzi Evans (1982) - wynika to raczej z naszej ostrożności w używaniu kwantyfikatorów ogólnych. We wszystkich powyższych przykładach (również jeśli we wniosku użylibyśmy kwantyfikatora szczegółowego) z punktu widzenia logiki popełniamy błąd: na podstawie tych przesłanek w sposób niezawodny nie można wyciągnąć żadnego wniosku. Nieco inaczej przedstawia się wnioskowanie, kiedy w prze słankach użyte zostaną różne kwantyfikatory. Begg i Denny (1969), precyzując przewidywania Woodwortha i Sellsa (1935), postawili dwie hipotezy: faworyzowania konkluzji negatywnej i faworyzowania konkluzji szczegółowej. Pierwsza hipoteza mówi, że negatywna przesłanka (np. żaden psycholog nie może praktykować bez znajomości psychologii poznawczej) tworzy atmo sferę „negatywną”, nawet jeśli inne przesłanki są pozytywne. Druga nato miast, że szczegółowa przesłanka (np. niektórzy psychologowie są krótkowidzami) tworzy atmosferę „szczegółową”, nawet jeśli pozostałe przesłanki są ogólne. Wnioskowanie wskazujące na zgodność z hipotezą atmosfery nie zawsze jest logicznie nieuprawnione. Niekiedy logika i „atmosfera” skłaniają nas do tego samego wniosku. W sylogizmie: Wszystkie A są B, Niektóre C nie są B, Zatem, niektóre C nie są A, wniosek jest poprawny i niezawodny, a zarazem zgodny z tendencją do faworyzowania konkluzji negatywnej i szczegółowej. Jeśli jednak z powyższych przesłanek wyciągnęlibyśmy, również zgodne z hipotezą atmosfery, wnioski: „Niektóre A są C”, „Niektóre C są A”, albo „Niektóre A nie są C”, uznając je za niezawodne, popełnilibyśmy błąd logiczny. W badaniach Sellsa (1936) błędy rozumowania sylogistycznego, które były zgodne z hipotezą atmosfery, stano wiły 51-72% wszystkich błędów. Sells i wielu innych badaczy wyciągnęło więc wniosek, że człowiek generalnie nie myśli logicznie (w każdym razie człowiek niewykształcony w zakresie logiki formalnej). Wetherick i Gilhooly (1995), po nieco innym przeliczeniu danych Sellsa, dokonali porównania poprawności konkluzji w warunku, kiedy wniosek był uprawniony, tj. logicznie wynikał z przesłanek, z warunkiem, kiedy wniosek był nieuprawniony. Okazało się,
i j
j
; i
I j
j j j i
i i j ] j | j i j
10.5. Rozumowanie dedukcyjne
451
że odsetek poprawnie ocenionych konkluzji, które były uprawnione, był istotnie wyższy (87,4%), niż odsetek poprawnie ocenionych konkluzji, które były nie uprawnione w świetle logiki (63,4%). Odrzucenie wniosków nieuprawnionych okazało się trudniejsze, niż uznanie wniosków uprawnionych, lecz ogólny poziom poprawności był wysoki. Wydaje się, że wniosek, iż nie potrafimy myśleć logicznie, jest możliwy, ale niekonieczny w świetle przesłanek (tutaj: analiz Sellsa). Problem nie polega na tym, że w ogóle nie potrafimy przeprowadzać poprawnego rozumowania dedukcyjnego, ale na tym, że w specyficznych sytuac jach popełniamy błędy logiczne. Jedno z wyjaśnień efektu atmosfery odwołuje się do podobieństwa syntaktycznego przesłanek. Jeśli obie przesłanki są opatrzone takim samym kwantyfikatorem, ich składnia, tworząc określoną atmosferę, skłania nas do użycia podobnej składni we wniosku. O ile wyjaśnienie to ma sens w tym wypadku, o tyle nie wyjaśnia błędów popełnianych wtedy, gdy przesłanki są opatrzone różnymi kwantyfikatorami. Nie wiadomo bowiem, dlaczego syntaktyka kwantyfikatora szczegółowego miałaby dominować nad syntaktyką kwantyfikatora ogólnego, podobnie jak nie jest jasne, dlaczego syntaktyka zdania prze czącego miałaby dominować nad syntaktyką zdania twierdzącego. Inne wyjaśnienie błędów popełnianych w sylogizmach proponuje hipoteza inwersji terminów w przesłankach (Chapman, Chapman, 1959). Inwersja polega na odwracaniu kierunku relacji między terminami zawartymi w przesłankach sylogizmu. Np. inwersja typu: jeśli „wszystkie A są B” to „wszystkie B są A” jest zupełnie nieuprawniona (to, że „wszyscy kawalerzy są mężczyznami” nie jest tożsame z tym, że „wszyscy mężczyźni są kawalerami”). Z logicznego punktu widzenia uprawniona jest inwersja tylko w przypadku relacji tożsamości: „niektóre A są B wtedy i tylko wtedy, gdy niektóre B są A” oraz „żadne A nie są B wtedy i tylko wtedy, gdy żadne B nie są A ”. Błąd inwersji polega na sto sowaniu równoważności w miejscu inkluzji (zawierania się) zbiorów w przypad ku, kiedy jest to nieuprawnione. Rozstrzygnięcie między hipotezami atmosfery i inwersji nie jest łatwe. Przeanalizujmy poniższy przykład: Niektóre A nie są B, Wszystkie B są C, Zatem, niektóre A nie są C. Wniosek jest błędny, ale równie dobrze przewidują go obie hipotezy. Błąd taki może wynikać zarówno z efektu atmosfery (kwantyfikator szczegółowy jednej z przesłanek wytwarza „atmosferę szczegółowości” i skłania do akceptacji wniosku operującego tym samym kwantyfikatorem), jak i z efektu inwersji (jeśli „wszystkie C są B” to „wszystkie B są C”). Błąd inwersji można uznać za przejaw ogólniejszej kategorii błędów, polegających na przyjmowaniu dodatkowych, a zarazem nieuprawnionych przesłanek (Nęcka, 1996). W efekcie nieuprawnionej inwersji, osoba rozwiązu jąca sylogizm „po cichu” tworzy dodatkową przesłankę, która jest fałszywa, a uwzględnienie jej w rozumowaniu prowadzi do błędnego wniosku. Źródłem błędów w rozumowaniu może być również milczące przyjmowanie przesłanek, które nie są explicite zawarte z sylogizmie (Nęcka, 1996).
452
Rozdział 10. Myślenie i rozumowanie
Próby rozstrzygnięcia między wspomnianymi hipotezami uznać należy za niewystarczające (np. Begg, Denny, 1969; Roberge, 1978), a może w ogóle niepotrzebne. Współcześnie pojawiła się bowiem trzecia możliwość wyjaśnięnia zaobserwowanych efektów empirycznych: hipoteza strategii dopasowania (;matching strategy; Wetherick, 1989, 1993; Wetherick, Gilhooly, 1990, 1995). Strategia ta polega na wyborze konkluzji pasującej do logicznej formy tej przesłanki, która jest bardziej „zachowawcza” (conservative ). Przesłanka bardziej zachowawcza to taka, która dotyczy mniejszej liczby przypadków. Dlatego wniosek w trybie ogólno-twierdzącym „a” zostanie wybrany, jeśli obie przesłanki wyrażone są w trybie „a”. Jeśli jednak jedna z przesłanek jest ogólno-twierdząca, a pozostałe innego trybu: „e”, „i” albo „o”, konkluzja będzie wyrażona w trybie dopasowanym do trybu drugiej przesłanki, ponieważ ta druga jest w swojej treści bardziej zachowawcza, a wniosek na niej oparty wydaje się mniej ryzykowny. Uporządkowanie trybów sylogistycznych pod względem ich „zachowawczości” wygląda następująco: „e” > „o” = „i” » „a”. Oznacza to, że tryb ogólno-przeczący jest najbardziej zachowawczy, ponieważ twierdzenie mówi o rozłączności dwóch zbiorów, np. żaden uczeń nie jest profesorem. W swoich badaniach Wetherick i Gilhooly (1995) użyli różnych wersji zadań z sylogizmami. Główny test hipotezy strategii dopasowania oparty został na zadaniu konstruowania przesłanek (premise construction). Osobie badanej prezentowano wniosek sylogizmu, a jej zadaniem było wygenerowanie jak największej liczby przesłanek, z których może być on prawomocnie wyprowa dzony. Następnie sprawdzano, czy popełnione błędy pasują do hipotezy strategii dopasowania. W trzech z czterech trybów wyniki istotnie lepiej pasowały do hipotezy strategii dopasowania, niż były z nią niezgodne. Jedynie w trybie „o” rezultaty były odwrotne. Hipoteza dopasowania wyjaśnia 71%, 84,6%, 81% i 30,8% błędów popełnionych przez osoby badane, odpowiednio w przypadku trybów „a”, „i”, „e”, „o”. Inny problem dotyczy formy reprezentacji sylogizmów liniowych. Począt kowo spierano się, czy jest to reprezentacja wizualno-przestrzenna (Byrne, Johnson-Laird, 1989; Gattis, Dupeyrat, 2000; Roberts, Gilmore, Wood, 1997), czy propozycjonalna, tj. w postaci sądów (Clark, 1969; Rips, 1994), a może mieszana (Sternberg, 1980). Użycie reprezentacji przestrzennych polegałoby na wyobrażeniu sobie każdego z trzech terminów sylogizmu na liniowym kon tinuum. Przykładowo w sylogizmie: Adam jest wyższy od Bartka, Bartek jest wyższy od Cezarego, Zatem, Adam jest wyższy od Cezarego,
każda z osób może być wizualnie reprezentowana na kontinuum „wzrostu”. O ile sylogizm jest konkluzywny, relacje między predykatem i podmiotem są możliwe do ustalenia na podstawie przestrzennego odniesienia każdego z nich w stosunku do terminu średniego. Reprezentacja za pomocą sądów polegałaby z kolei na ustaleniu semantycznych związków między terminami sylogizmu. Przesłanki posiadałby wówczas następujące reprezentacje: [wyższy(Adam, Bar tek)] i [wyższy(Bartek, Cezary)]. Kombinacja tych dwóch reprezentacji pozwala na wyciągnięcie prawomocnego wniosku. W badaniach empirycznych okazało
\ 1 i i
i \ j ] ; i ; ] I j j : j j j
10.5. Rozumowanie dedukcyjne
453
się, że złożoność językowa zdania, za pomocą którego wyrażone są przesłanki, wyraźnie wpływa na ilość czasu niezbędnego na ich przetworzenie (Clark, 1969), co wskazuje na udział reprezentacji propozycjonalnej. Podkreśla się jed nak, że spór między powyższymi poglądami może być sztuczny, jeśli uwzględni się różnice indywidualne w stosowanych strategiach weryfikacji sylogizmów (MacLeod, Hunt, Matthews, 1978). Wyniki MacLeoda i współpracowników pasowały do modelu werbalnego, ale pewna część osób badanych posługiwała się strategią obrazową (w ich przypadku nie stwierdzono różnicy w czasie przetwarzania przesłanek twierdzących i przeczących, które różnią się złożo nością językową). Zjawisko to potwierdzono wielokrotnie, przy czym nie ma jasności, czy strategie te zdecydowanie różnią się efektywnością (Ford, 1995), czy też różnica między nimi jest niewielka (Bacon, Handley, Newstead, 2003). Poparciem dla tezy o konieczności uwzględnienia różnic indywidualnych w sposobie reprezentowania sylogizmów są dane uzyskane z wykorzystaniem techniki fMRI (Reichle, Carpenter, Just, 2000). Stwierdzono odmienne korelaty neuronalne rozumowania werbalnego i obrazowego w zadaniach podobnych do tych, które stosowali MacLeod, Hunt i Matthews (1978). Okazało się również, że pomimo pewnych preferencji w zakresie strategii rozumowania (wynikają cych albo z różnego poziomu zdolności werbalnych i przestrzennych, albo związanych z preferowanym stylem poznawczym ), człowiek zgodnie z wymaganiami zadania potrafi - przynajmniej częściowo - dopasować się do optymalnej formy reprezentacji wynikającej z wymagań zadania (Roberts i in., 1997). Interesujące wyjaśnienie roli reprezentacji werbalnych i obrazowych w ro zumowaniu sylogistycznym zaproponował Sternberg (1980) w postaci tzw. modelu mieszanego. Model ten, testowany empirycznie w opozycji do jedno rodnych modeli obrazowych albo propozycjonalnych, zakłada jednoczesny udział obu form reprezentacji w rozwiązywaniu sylogizmów. W modelu Sternberga sądy stosujemy w celu utworzenia reprezentacji informacji zawartych w przesłankach. Następnie przekształcamy te reprezentacje w postać wizualną w celu wyprowadzenia wniosku albo jego weryfikacji.
10.5.4. Wpływ w iedzy i kontekstu na rozumowanie sylogistyczne Istotną przyczyną błędów w rozumowaniu sylogistycznym, jak zresztą w każdej formie rozumowania, jest uprzednia wiedza, a szczególnie osobiste poglądy i przekonania. Podstawowy problem w rozumowaniu sylogistycznym polega na interferencji dwóch czynników: logicznej poprawności wniosku oraz jego praw dziwości (albo zgodności z przekonaniami). Evans, Barston i Pollard (1983) użyli w swoich badaniach czterech rodzajów sylogizmów, manipulując popraw nością wniosku w sensie logicznym i jego zgodnością ze stanem faktycznym. Łącznie dało to cztery kombinacje, w których wniosek jest: (1) logicznie upraw niony i „sam w sobie” prawdziwy, (2) uprawniony, ale fałszywy, (3) nieupraw niony, ale prawdziwy i (4) nieuprawniony i fałszywy. Mogły to być np. nastę pujące sylogizmy:
454
Rozdział 10. Myślenie i rozumowanie
(1) Żadne papierosy nie są tanie, Niektóre używki są tanie, Zatem, niektóre używki nie są papierosami.
(2) Żadne używki nie są tanie, Niektóre papierosy są tanie, Zatem, niektóre papierosy nie są używkami.
(3) Żadne używki nie są tanie, Niektóre papierosy są tanie, Zatem, niektóre używki nie są papierosami.
(4) Żadne papierosy nie są tanie, Niektóre używki są tanie, Zatem, niektóre papierosy nie są używkami.
Zadaniem osób badanych była ocena poprawności każdego wniosku w świetle zaprezentowanych przesłanek. Co do sylogizmów (1) i (3), z których tylko pierwszy jest uprawniony, ale konkluzje obu są zgodne z wiedzą potoczną, nie wykryto różnic w częstości akceptacji ich poprawności. W obu przypadkach wyniosła ona 92%. Częstotliwość akceptacji wniosków w pozostałych sylogizmach była znacznie niższa. Akceptacja prawidłowego sylogizmu (2), którego konkluzja jest niezgodna z wiedzą, była na poziomie 46%. Najrzadziej, bo zaledwie w 8% przypadków, akceptowano sylogizm (4). Z kolei Oakhill i Johnson-Laird (1985) użyli w swoich badaniach metody generowania konkluzji, pozostawiając osobom badanym swobodę w zakresie wniosków wyprowadzanych z zaprezentowanych przesłanek. Z tych przesłanek w sposób uprawniony wynikały wnioski, które mogły być zgodne albo sprzeczne z przekonaniami czy wiedzą osób badanych. Okazało się, że badani istotnie częściej formułowali wnioski poprawne, jeśli były one zgodne z wiedzą potoczną (58%), niż kiedy były z nią sprzeczne (38%). Poza tym, gdy wnioski były sprzeczne z wiedzą potoczną, badani częściej twierdzili, że z zaprezentowanych im przesłanek nie da się wyciągnąć prawomocnego wniosku (46%); kiedy wnioski były zgodne z wiedzą potoczną, zdarzało się to znacznie rzadziej (13%). Jeśli jednak z zaprezentowanych przesłanek rzeczywiście nie można było wy ciągnąć prawomocnego wniosku, to badani częściej formułowali błędne kon kluzje, które były zgodne z ich przekonaniami (46%), niż poprawnie twierdzili, że z przesłanek nic pewnego nie wynika (17%). Wskazuje to na silny efekt interferencji wiedzy na temat prawdziwości wniosku z jego prawomocnością w świetle logiki. Konflikt tego rodzaju rozstrzygany jest raczej na korzyść wie dzy i przekonań. Nie ma to sensu z punktu widzenia logiki, ale badania nad rozumowaniem nieformalnym (zob. rozdz. 10.6), sugerują inne wytłumaczenie tej, być może tylko pozornej, nieracjonalności. Wśród badaczy nie ma zgody co do mechanizmu tego zjawiska (por. Klauer, Musch, Naumer, 2000). W większości modeli wyjaśniających, włączenie wiedzy i przekonań do procesu wnioskowania jest sposobem na uproszczenie tego ostatniego. Przykładowo, jeśli konkluzja jest logicznie zgodna z pierwszym mo delem umysłowym (zob. rozdz. 10.5.2) zbudowanym na podstawie przesłanek, pozostałe modele nie podlegają weryfikacji. Sprawdzeniu podlega tylko zgod ność konkluzji z przekonaniami. Jeśli taka zgodność zaistnieje, konkluzja zostaje zaakceptowana (Newstead i in., 1992; Oakhill i in., 1989). Jest to zatem rodzaj heurystyki, pozwalającej na zmniejszenie obciążenia poznawczego, która - jak się wydaje - może być skuteczna w życiu codziennym. Wykazanie niezgod ności wniosku ze stanem faktycznym jest sposobem falsyfikacji hipotez, nie tylko w życiu codziennym, lecz również w laboratorium naukowym. Uczony formułuje wniosek na podstawie przesłanek wynikających z teorii, i jeśli stwier dza jego niezgodność z obserwacją lub danymi eksperymentalnymi, kwestionuje trafność teorii.
10.6. Rozumowanie warunkowe
455
10.6. Rozumowanie warunkowe 10.6.1. Istota rozumowania warunkowego Rozumowanie warunkowe jest częścią logiki, zajmującą się tzw. rachunkiem zdań. Implikacja, stanowiąca podstawowy przedmiot zainteresowania badaczy rozumowania warunkowego, jest jednym z funktorów używanych w rachunku zdań (obok koniunkcji, alternatywy, dysjunkcji, negacji i równoważności). Im plikacja składa się z dwóch zdań: poprzednika i następnika, połączonych spój nikiem „jeżeli... to...”. Na przykład „jeśli uderzę w stół, to nożyce się odezwą”. Implikacja w tej postaci jest fałszywa tylko wtedy, gdy poprzednik jest prawdzi wy, a następnik fałszywy. Załóżmy, że chcemy sprawdzić prawdziwość powyższej implikacji. Uderzamy zatem w stół i ilekroć to czynimy, nożyce powinny się odezwać. W przeciwnym wypadku, implikacja jest fałszywa (poprzednik jest prawdziwy, bo uderzyliśmy w stół, a następnik jest fałszywy, bo nożyce się nie odezwały). Aby implikacja była prawdziwa, zajście poprzed nika jest warunkiem wystarczającym (ale niekoniecznym) dla zajścia następni ka, ale zajście następnika jest koniecznym skutkiem uprzedniego zajścia po przednika. Jeśli te warunki nie są spełnione, implikacja jako całość jest fałszywa, choć prawdziwe mogą być jej składniki (tj. poprzednik lub następnik). Innymi słowy, dla odezwania się nożyc, warunkiem wystarczającym, ale niekoniecznym jest uderzenie w stół. Równie dobrze mogą się one odezwać z innych przyczyn, np. kiedy ktoś mocniej trąci nogę od stołu, kiedy w pobliżu przejedzie tramwaj, bądź z wielu innych powodów. Ale każde uderzenie w stół powinno prowadzić do odpowiedzi ze strony nożyc, bowiem jest to warunek konieczny prawdzi wości tej implikacji. Implikacja jest narzędziem opisu rzeczywistości, które pozwala na for mułowanie związków przyczynowo-skutkowych między interesującymi nas zjawiskami. Jeśli chcemy wiedzieć, co powoduje, że ludzie nas lubią (np. po to, aby lubili nas jeszcze bardziej), albo jeśli chcemy zrozumieć, dlaczego ludzie zachowują się konformistycznie, formułujemy hipotezy w postaci implikacji. Na przykład „jeśli mówię komuś miłe rzeczy, to bardziej mnie polubi”, czy też, „jeśli ludziom zależy na akceptacji w grupie, to stają się bardziej konformistyczni”. Następnie, jak wszystkie hipotezy, powinniśmy poddać je weryfika cji: sprawdzić, czy reguły w nich zawarte są prawdziwe. W życiu codziennym może nas zadowolić, kiedy reguła częściej działa, niż nie działa. W logice nie zbędne jest ustalenie niezawodnych schematów wnioskowania z użyciem implikacji. Ponieważ implikację można w sposób formalny przedstawić następująco: „jeżeli p, to q”, a każdy z jej argumentów może przyjąć dwie wartości: prawda albo fałsz, to otrzymujemy łącznie cztery kombinacje. Każda z nich jest osobnym schematem wnioskowania. Dwa z tych schematów są niezawodne, a dwa za wodne. (1) Modus Ponens: Jeżeli p, to q P Więc: q
456
Rozdział 10. Myślenie i rozumowanie
(2) Potwierdzenie Następnika: Jeżeli p, to q
q Więc: p (3) Zaprzeczenie Poprzednika: Jeżeli p, to q
nie p Więc: nie q
(4) Modus Tollens: Jeżeli p, to q
nie q Więc: nie p Schematy (1) i (4) są niezawodne, tj. ich użycie jest uprawnione i konkluzywne z logicznego punktu widzenia. Warto podkreślić, że schematy te są niezawodne, czyli wnioskowanie z ich użyciem jest poprawne, co nie oznacza, że implikacja jako całość jest prawdziwa bądź fałszywa. O tym decyduje prawdziwość poprzednika i następnika. Przykładowo, testowanie hipotez opiera się na wykorzystaniu obu trybów, ale źródłem przesłanek jest indukcja, z natury swej zawodna. Policjant może użyć implikacji: „Jeśli to jest sprawca, był na miejscu zbrodni”. Następnie stwierdza, że podejrzanego nie było na miejscu zbrodni, z czego wypływa wniosek, że nie może on być sprawcą. Wniosek jest poprawny logicznie, ale przesłanka „nie był na miejscu zbrodni” może być fałszywa, bo oparto ją o poszlaki, a nie dowody (np. w tym samym dniu w innym mieście płacono kartą kredytową podejrzanego). Dlatego pomimo że wniosko wanie na podstawie schematów (1) i (4) z logicznego punktu widzenia jest poprawne, implikacja może być fałszywa. Pozostałe dwa schematy: (2) i (3), są zawodne, więc nie mogą zostać użyte do testowania implikacji. Innymi słowy, ich użycie, bez względu na prawdziwość czy fałszywość przesłanek, jak również prawdziwość lub fałszywość całej implikacji, jest nieuprawnione. Podobnie jak w sylogizmach liniowych i kategorycznych, niekonkluzywne schematy wniosko wania są najczęstszym źródłem błędów poznawczych w rozumowaniu warun kowym.
10.6.2. Błędy rozumowania warunkowego Rozumowanie warunkowe daje wiele okazji do popełniania błędów. Można nie tylko błędnie zastosować określony schemat (niezawodny jako zawodny i odwrotnie), ale również pominąć któryś z niezawodnych schematów, chociaż aby się upewnić co do poprawności implikacji, niezbędne jest użycie obu. Przeanalizujmy ten fenomen na przykładzie zadania eksperymentalnego, które prowadzi w statystykach częstości stosowania w badaniach nad rozumowaniem warunkowym. Chodzi o tzw. zadanie selekcyjne (selection task), użyte po raz pierwszy przez Wasona (1966). Zadanie to wymaga weryfikacji prawdziwości prostej hipotezy, że jeśli na kartce z jednej strony napisano konkretną literę (np. A), to z drugiej strony musi być napisana liczba parzysta (zob. paradygmat 10.1). Osoba badana widzi cztery kartki, dwie odkryte po stronie liczby, a dwie
10.6. Rozumowanie warunkowe
457
Paradygmat 10.1
Zadanie selekcyjne Wasona W oryginalnej postaci zadania osoba badana otrzymuje zestaw czterech kart, z których każda z jednej strony ma literę, a z drugiej - jednocyfrową liczbę (zob. ryc. 10.5). Osoba badana widzi tylko jedną stronę każdej karty; w przypadku dwóch kart jest to litera, w dwóch pozostałych - liczba. Zadanie polega na sprawdzeniu poprawności implikacji: „Jeżeli z jednej strony karty jest samogłoska, to po drugiej jej stronie jest liczba parzysta” . Następnie prosi się badanych o wskazanie tych kart, które należałoby odsłonić (zobaczyć ich odwrotną stronę), w celu sprawdzenia poprawności implikacji. W języku logiki zadaniem osoby badanej jest próba falsyfikacji hipotezy zawartej w implikacji.
A G 6 9 Ryc. 10.5. Zadanie selekcyjne Wasona.
Studenci psychologii poznawczej, otrzymujący to zadanie na wykładzie, w pierwszej chwili proszą o odsłonięcie wszystkich kart. Jeśli przewrotnie zacząć od odwrócenia drugiej karty, okazuje się, że informacja zawarta na odwrocie nic nie mówi o prawdziwości implikacji. Ponieważ na drugiej karcie jest spółgłoska (G), nie ma znaczenia, jaka liczba - parzysta czy nieparzysta - znajduje się na jej odwrocie, bowiem implikacja precyzuje jedynie, jaka liczba ma się znajdować na odwrocie karty z samogłoską. Wybór karty z literą G jest więc nieuzasadniony i świadczy 0 tzw. błędzie zaprzeczenia poprzednika. Na przykład, dla sprawdzenia prawdzi wości implikacji: „jeśli pada deszcz, to Kasia jest smutna”, nie ma sensu obser wowanie Kasi, gdy nie pada. Można bowiem być smutnym z wielu innych powo dów, o których implikacja nie wspomina. Jeżeli kontynuując wykład odsłonimy kartę trzecią (6), również okaże się, że to co znajdziemy na jej odwrocie nie ma znaczenia dla prawdziwości implikacji. Nawet jeśli pod liczbą 6 znajduje się spółgłoska, to implikacja nadal może być prawdziwa, bowiem dotyczy ona tego, co jest po drugiej stronie karty z samogłoską, a nie tego, co jest na odwrocie karty z liczbą parzystą. Implikacja „jeśli samogłoska, to liczba parzysta” nie jest tożsama z implikacją „jeśli liczba parzysta, to samogłoska”. Przykładowo: „jeśli pada deszcz, to jestem smutna” jest czymś zupełnie innym, niż „jeśli jestem smutna, to pada deszcz”. Mamy tu do czynienia z błędem afirmacji następnika. Poprawny wybór w zadaniu selekcyjnym Wasona, to odsłonięcie pierwszej 1ostatniej karty, zgodnie z trybami wnioskowania niezawodnego modus ponens i modus tollens. Aby w pełni zweryfikować implikację, pod literą A musi znajdować się cyfra parzysta, a pod cyfrą 9 (nieprawda, że parzysta, czyli nieparzysta) nie może znajdować się samogłoska. Badani Wasona (1966) powinni podjąć decyzję o odwróceniu dwóch kart: z literą A i z cyfrą 9. Jednak zaledwie 4% z nich dokonało takiego wyboru. Spora część osób badanych (33%) stosowała wyłącznie prostszą
458
Rozdział 10. Myślenie i rozumowanie
regułę modus ponens, prosząc o odsłonięcie tylko karty z literą A. Jednak największy odsetek osób badanych, bo aż 46%, wybierał karty z literą A i cyfrą 6, popełniając w ten sposób błąd afirmacji następnika. Dla porządku należy dodać, że w szczególnym przypadku - mianowicie wówczas, kiedy pod literką A znaleźli byśmy liczbę nieparzystą - odsłonięcie tylko tej jednej karty wystarcza do sprawdzenia poprawności implikacji. Sprawdzanie drugiej karty jest niepotrzebne, bo wiemy już, że reguła nie jest spełniona, a cała implikacja jest fałszywa. Falsyfikacja hipotez, np. predykcji wynikających z teorii naukowych, jest więc działaniem o tyle prostszym niż ich weryfikacja, że wystarczy wskazać (i udokumentować) jeden przypadek, dla którego implikacja jest fałszywa. Mamy ku temu dwie drogi: dzięki niezawodnym trybom modus ponens i modus tollens.
i ?
j i \
5 i
po stronie litery. Musi wskazać te kartki, które koniecznie trzeba odkryć, aby sprawdzić, czy hipoteza jest prawdziwa. Oaksford i Chater (1994) w przeprowadzonej metaanalizie rezultatów 34 eksperymentów z użyciem abstrakcyjnej postaci zadania Wasona, ustalili, że przeciętnie 89% badanych wybiera (odwołując się do przykładu przedstawio nego na ryc. 10.5) kartę z literą A, 62% wybiera kartę z cyfrą 6,25% wybiera kartę z cyfrą 9 i 16% - kartę z literą G. Gdy weźmie się pod uwagę tylko proporcję prawidłowych odpowiedzi A i 9 do pozostałych odpowiedzi, to otrzy mamy rezultat zbliżony do pierwotnego wyniku otrzymanego przez Wasona. Wyjaśnienie tego efektu, zaproponowane przez samego Wasona (1966), odwołuje się do preferowanej przez większość ludzi konfirmacyjnej strategii testowania hipotez (zob. też Evans, 1989). Strategia ta polega na poszukiwaniu przypadków potwierdzających regułę, przy niedostatecznym uwrażliwieniu na przypadki, które jej przeczą. Tymczasem mnożenie przypadków potwierdzających nie daje gwarancji prawdziwości hipotezy, bo wystarczy jeden przypadek przeczący hipotezie, aby ją skutecznie obalić. Dlatego dążąc do weryfikacji hipotezy, czyli sprawdzenia jej prawdziwości, powinniśmy przyjąć strategię falsyfikacyjną. Polega ona na szukaniu przypadków, które przeczą hipotezie. Jeśli nie uda nam się ich znaleźć, albo jeszcze lepiej - gdy udowodnimy, że ich nie ma hipotezę możemy uznać za potwierdzoną. Paradoksalnie, aby wiarygodnie potwierdzić hipotezę, trzeba się starać ją sfalsyfikować. Na tym polega logika badania naukowego. Badacz stawia hipotezę zerową, będącą logicznym zaprzeczeniem właściwej hipotezy badawczej. Następnie stara się obalić hipotezę ze rową według schematu modus tollens: „Jeśli HO, to wynik X. Stwierdzam nie X. Zatem nie HO”. Obaliwszy hipotezę zerową, badacz ma prawo uznać, że praw dziwa jest hipoteza alternatywna, czyli właściwa hipoteza badawcza. Gdyby od początku nastawił się na jej potwierdzanie, uległby powszechnemu złudzeniu o przydatności strategii konfirmacyjnej, a więc popełniłby metodologiczny błąd.
10.6.3. W pływ w iedzy i kontekstu na rozumowanie warunkowe Okazało się, podobnie jak w badaniach nad poprawnością rozwiązywania sylo gizmów, że zmiana treści implikacji z „abstrakcyjnej” na „życiową” znacznie
j
i \
j
j j
j
] j j
i 1 | j
\ \ { j i
10.6. Rozumowanie warunkowe
459
zwiększa poprawność rozumowania warunkowego. Griggs i Cox (1982) w za daniu selekcyjnym, izomorficznym względem oryginalnego zadania Wasona, poprosili swoich badanych o sprawdzenie poprawności implikacji. Jedna z sytuacji „życiowych” użytych w jednym z eksperymentów miała następującą postać: Wyobraź sobie, że jesteś policjantem na służbie. Twoja praca polega na kontroli respektowania obowiązujących norm. Karty leżące przed tobą zawierają informacje o czterech osobach siedzących przy stole. Na jednej stronie karty podany jest wiek osoby, a na drugiej stronie - co dana osoba pije. Obowiązująca reguła jest następująca: Jeżeli osoba pije piwo, to musi mieć ukończone 18 lat. Wskaż kartę albo karty, które koniecznie musisz odwrócić, aby ustalić, czy reguła została naruszona. Na kartach dostarczonych osobom badanym znalazły się kolejno następu jące informacje: „pije piwo”, „pije colę”, „22 lata” i „17 lat”. Dla porównania osoby badane wykonały również klasyczne zadanie Wasona. Okazało się, że w „życiowej” wersji zadania aż 73% uczestników eksperymentu poprawnie wskazało karty, które należało odwrócić (tj. „pije piwo” i „17 lat”), podczas gdy żadna z 40 osób badanych nie rozwiązała poprawnie zadania „abstrakcyjnego”. Nazwano to efektem materiału tematycznego (thematic-materials effect). Szczególnie interesujące było to, że w grupie osób, które poprawnie wykonały tematyczne zadanie selekcyjne, nie stwierdzono efektu transferu reguł wniosko wania na zadanie abstrakcyjne. Wyniki Griggsa i Coxa doczekały się wielu replikacji, jednak nie zawsze ich rezultaty były tak spektakularne. Okazało się mianowicie, że jeśli implikacja wymaga specyficznej wiedzy (np. zasad funkcjo nowania poczty we Włoszech; Johnson-Laird, Legrenzi, Legrenzi, 1972), to efekt materiału tematycznego jest słabszy, a nawet zupełnie zanika (np. Yachamin, 1980). W takich warunkach dobrze radzą sobie tylko ci, którzy dysponują specjalistyczną wiedzą; sam efekt zmiany formatu zadania z abstrakcyjnego na życiowy niewiele daje. Interesująca odmiana badań dotyczących rozumienia implikacji tematycz nych została użyta przez Lenę Cosmides i współpracowników (Cosmides, 1989; Tooby, Cosmides, 1990; Cosmides, Tooby, 1992,1994). Autorka, wykorzystując podejście ewolucyjne, doszła do wniosku, że implikacja jest poprawnie używana w specyficznych sytuacjach społecznych. Chodzi mianowicie o wykrywanie oszustów, którzy korzystają z pewnych przywilejów społecznych, nie ponosząc żadnych kosztów. Badania Cosmides opisano szczegółowo w ramce 10.1. Ramka 10.1
Posługiwanie się implikacją w sytuacjach społecznych
Cosmides w serii badań (Cosmides, 1989; Tooby, Cosmides, 1990; Cosmides, Tooby, 1992, 1994) starała się dowieść, że w pewnych sytuacjach społecznych zadziwiająco sprawnie i poprawnie posługujemy się implikacją. Chodzi o wykry wanie oszustów łamiących podstawową zasadę życia społecznego - regułę kon traktu społecznego - którą można zilustrować implikacją: „jeżeli odnosisz jakąś korzyść, musisz ponieść pewne koszty”. Ewolucyjnie wykształcony mechanizm
460
Rozdział 10. M yślenie i rozum ow anie
wykrywania oszustów podpowiada, że trzeba sprawdzić, czy jeśli ktoś odniósł
korzyść, to poniósł stosowne koszty, oraz jeśli nie poniósł kosztów, to czy bezprawnie odniósł jakieś korzyści. W badaniach Cosmides uczestnicy dowiadywali się o niecodziennych zwy czajach pewnego plemienia. Mianowicie mężczyźni w dniu ożenku oznaczani byli specjalnym tatuażem i otrzymywali dostęp do części wyspy, w której rosło ziele cassava - miejscowy afrodyzjak. Ze zrozumiałych względów był on dostępny tylko żonatym mężczyznom, a przepustkę do poruszania się w tej części wyspy stanowił właśnie tatuaż. Reguła społeczna brzmiała więc następująco: „jeżeli ktoś je ziele cassava, to ma na twarzy tatuaż”. Okazało się, że pochwycono czterech mężczyzn, podejrzanych o nielegalne używanie cassavy. Pierwszy kręcił się w okolicy, w której rośnie ziele, a drugi w zupełnie innej części wyspy. O obu nie wiadomo, czy mają tatuaż. Kolejna dwójka pochwycona została z jakimś zielem (nie wiadomo jakim), ale tylko jeden z nich ma tatuaż. Jest to więc izomorfizm klasycznego zadania selekcyjnego Wasona. Uczestników badań Cosmides podzielono na dwie grupy: detektywów wynajętych przez starszyznę w celu sprawdzenia moralności mie szkańców wyspy oraz socjologów śledzących ich zwyczaje. Istotą tej manipulacji była konieczność odwołania się do mechanizmu wykrywania oszustów w pierwszej grupie i brak takiej konieczności w grupie drugiej. Badani, o ile wcielali się w rolę detektywów, świetnie radzili sobie zarówno z trybem modus ponens, jak i modus tollens. Właściwie wskazywali dwóch podej rzanych, których koniecznie trzeba dokładniej sprawdzić: tego, który kręcił się w okolicy, gdzie rośnie cassava, ale nie wiadomo czy ma tatuaż, oraz tego, który nie ma tatuażu, ale ma jakieś ziele w ręce. Identyfikacja z rolą badacza zjawisk spo łecznych właściwie nie wpływała na poprawność wykonania zadania: badani z tej grupy popełniali równie dużo błędów, jak w abstrakcyjnej wersji zdania selekcyj nego Wasona.
Czynnikiem wpływającym na popraw ność rozum ow ania jest również jego kontekst. Braine i w spółpracownicy (1984) zauważyli, że specyficzna postać zadań dedukcyjnych może stanow ić dla osób badanych ukrytą wskazówkę, aby we w nioskow aniu w ykorzystać jedynie te informacje, które są wyrażone wprost w przesłankach i w niosku. Z adanie dedukcyjne jawi się jako swego rodzaju m ikrokosm os, poza którym nic się nie może zdarzyć. Dlatego jeśli prezentujemy implikację: Jeżeli pada deszcz, to Fred zmoknie, Fred jest mokry, Zatem, ...,
to osoby badane skłonne są twierdzić, że upraw niony jest wniosek: „pada deszcz” . Z logicznego punktu w idzenia jest to rzecz jasna błąd afirmacji następnika, ponieważ Fred mógłby zm oknąć z wielu innych powodów. Jednak te inne powody znajdują się poza „m ikrokosm osem ” utw orzonym przez obie przesłanki. Jeśli jednak dodamy dodatkow ą przesłankę, np.: Jeżeli pada deszcz, to Fred zmoknie, Jeżeli pada śnieg, to Fred zmoknie,
j
\ j 3 j
j
j \ \ ] j
j j j
10.6. Rozum owanie w arunkow e
461
Fred jest mokry,
Zatem, ..., to zdecydowanie częściej pojawiała się poprawna odpowiedź, że na podstawie takich przesłanek nie można wyciągnąć konkluzywnego wniosku. Wprowa dzenie szerszego kontekstu rozbudowuje „mikrokosmos zadania dedukcyjne go”, jest więc czynnikiem zmniejszającym liczbę błędów w rozumowaniu. Być może w sytuacjach życia codziennego, gdy rozumowanie odbywa się w szerokim kontekście licznych wskazówek i dodatkowych informacji, nie zawsze wyrażo nych wprost, ludziom łatwiej uniknąć błędu. Mogą wówczas stosunkowo łatwo odnaleźć przesłanki pozwalające stwierdzić, że dostarczone informacje są niekonkluzywne; mogą też poszukać dodatkowych wskazówek. Ktoś, kto rze czywiście miałby do czynienia z zagadką zmokniętego Freda, mógłby wyjrzeć przez okno, aby sprawdzić, czy pada deszcz, mógłby też po prostu zapytać Freda, dlaczego jest mokry. Zresztą - co już zupełnie umyka badaczom rozumowania ktoś taki mógłby w ogóle nie dociekać przyczyny zmoknięcia Freda, a zająć się jego suszeniem i przeciwdziałaniem grożącemu mu przeziębieniu. W realnym kontekście społecznym działania tego rodzaju mają znacznie bardziej przy stosowawczy charakter, niż wyciąganie wniosków z przesłanek. Z drugiej strony, jak wykazała Ruth Byrne (1989a), kontekst może przyczynić się do zmniejszenia poprawności rozumowania. W jej badaniach z użyciem implikacji, uczestnicy otrzymywali zadania tego typu: Jeżeli Ola ma esej do napisania, to zostaje do późna w bibliotece, Jeżeli biblioteka jest otwarta, to [Ola] zostaje do późna w bibliotece, Ola ma esej do napisania, Zatem, ...
Mimo że poprawny w tej sytuacji wniosek („Ola zostaje do późna w bibliotece”) wymaga wykorzystania prostego trybu modus ponens, osoby badane rzadko go formułowały. Można to wyjaśnić dystrakcyjnym charakterem dodatkowej przesłanki („Jeżeli biblioteka jest otwarta, to [Ola] zostaje do późna w biblio tece”). W powyższym przykładzie druga przesłanka pozornie wzbogaca kontekst, ale w gruncie rzeczy czyni całą sytuację dość niejasną. Wiadomo, że Ola może zostać w bibliotece tylko pod warunkiem, że ta jest otwarta. Tę oczywistość można by zignorować i wyciągnąć poprawny wniosek, że jeśli Ola ma esej do napisania, zostaje do późna w bibliotece. Tymczasem druga, nadmiarowa prze słanka prowadzi osoby badane na manowce, każąc im formułować takie np. wnioski: „Ola sprawdza, czy biblioteka jest otwarta, bo ma esej do napisania”. Być może tak postąpiłaby prawdziwa Ola, ale do wyciągnięcia prawidłowego logicznie wniosku wystarczy informacja zawarta w przesłance pierwszej i trzeciej. Wydaje się, że dodatkowa przesłanka może zwiększać liczbę lub poziom złożoności modeli umysłowych, reprezentujących sytuację opisaną za pomocą kilku implikacji. To z kolei prowadzi do większego obciążenia pamięci roboczej (Johnson-Laird, 1983), co przy jej ograniczonej wydolności może podwyższać ryzyko błędu w rozumowaniu. Wracając do ostatniego przykładu, z drugiej przesłanki wynika, że Ola zostaje do późna w bibliotece zawsze, gdy tylko ta jest otwarta, niezależnie od tego, czy ma esej do napisania. Konieczność napisania eseju jest tylko szczególnym przypadkiem ogólnej reguły, mianowicie że Ola
462
Rozdział 10. Myślenie i rozumowanie
pracuje w bibliotece do późna zawsze, gdy to jest możliwe. Osoba badana, która to zauważy, będzie musiała zbudować znacznie bardziej skomplikowany, a przez to bardziej obciążający pamięć roboczą model umysłowy. Paradoksalnie, znacz nie lepsze efekty może uzyskać osoba mniej spostrzegawcza, która zbuduje model umysłowy tylko opierając się na przesłance pierwszej i trzeciej. Najlepsze wyniki uzyska oczywiście osoba spostrzegawcza, ale zdolna do aktywnego wy tłumienia nieistotnej informacji. W każdym razie wyniki uzyskane przez Byrne (1989b) falsyfikują hipotezę o automatycznym charakterze używania trybu modus ponens, który miałby być uruchamiany zawsze, gdy sytuacja zostaje zidentyfikowana jako możliwa do opisania za pomocą implikacji (Braine i in., 1984). Gdyby tak było, osoby badane powinny wyprowadzać prawidłowy wnio sek bez względu na liczbę nadmiarowych przesłanek. W warunkach życia codziennego, a także w przypadku bardzo złożonych problemów (np. nauko wych), informacji wprowadzających niepotrzebną dystrakcję jest zwykle bardzo dużo, co prawdopodobnie przyczynia się do dużej liczby błędów i porażek w rozumowaniu.
10.7. Teorie rozumowania dedukcyjnego W deskryptywnym podejściu do problematyki rozumowania od początku po dejmowano próby stworzenia teorii, która byłaby w stanie opisać ogólny mechanizm rozumowania. Wydaje się, że bez względu na rodzaj rozumowania umysł ludzki jest zdolny do implementowania reguł logicznych w sytuacjach wymagających rozumowania. Czyni to jednak ze zmiennym powodzeniem. Na przykład reguła modus ponens jest zazwyczaj poprawnie stosowana, a reguła modus tollens - relatywnie rzadko. Pojawiają się więc dwa pytania: (1) jakie reguły są obecne w umyśle człowieka i jaką przyjmują formę, a ponadto, (2) dlaczego te same reguły logiczne niekiedy stosujemy zupełnie poprawnie, a in nym razem - przeważnie błędnie. Szukanie odpowiedzi na te pytania jest do meną teorii rozumowania dedukcyjnego. Najważniejsze z nich to teoria ab strakcyjnych reguł i teoria modeli umysłowych.
10.7.1. Teoria abstrakcyjnych reguł
j
Podejście to opiera się na założeniu, iż człowiek z natury jest istotą racjonalną, co - w uproszczeniu - przekłada się na zdolność do efektywnego używania regut logiki. Jest to specjalny rodzaj logiki, zwany logiką mentalną (mental logie) i odróżniany od sformalizowanych systemów logiki „oficjalnej”, choć nie pozostający wobec nich w opozycji. Człowiek ma dysponować naturalną zdol nością do korzystania z reguł logiki umysłowej, a to, że popełnia błędy, wynika z błędnego zrozumienia zadania albo z utworzenia niewłaściwej reprezentacji umysłowej tegoż zadania. Zgodnie z tym założeniem, człowiek korzysta z pew nego zestawu abstrakcyjnych reguł logicznych, które mają charakter niezależny od dziedziny, a więc mogą być zastosowane zawsze, gdy stwierdzone zostanie ich dopasowanie do sytuacji lub zadania intelektualnego. Dlatego też, w myśl
j j j
j
10.7. Teorie rozum ow ania dedukcyjnego
463
teorii reguł, przyjmuje się, że rozumowanie ma charakter syntaktyczny. Niezależność od dziedziny oznacza również, że abstrakcyjne reguły rozumowa nia pozbawione są treści, mają więc postać zbliżoną do formuł logicznych. Twierdzi się nawet, że istnieje analogia między naturalnymi regułami umysło wymi, stosowanymi w rozumowaniu, a elementarną logiką (por. Rips, 1983). Zwolennicy tego podejścia twierdzą, że jeżeli zadanie zostanie rozpoznane jako wymagające zastosowania reguł logicznych, uruchamia się program rozumowania. Przebiega on w trzech etapach. Pierwszy etap polega na iden tyfikacji logicznej struktury przesłanek. Ich treść jest przekładana na abstrak cyjną formę sądów, operujących abstrakcyjnymi symbolami (por. rozdz. 2.4). Symbole łączone są w zdania, reprezentujące informacje zawarte w przesłan kach. Jeżeli struktura konkretnego zadania zostanie uznana za dopasowaną do jakiejś reguły umysłowej, uruchamiany jest odpowiedni program rozumowania. W modelach regułowych określa się to jako drugi etap rozumowania. Złożoność programu związana jest z dwoma czynnikami. Pierwszym jest złożoność samego zadania (np. liczba przesłanek), co przekłada się na konieczność przeprowa dzenia dłuższego dowodu umysłowego. Drugi czynnik to liczba i złożoność reguł, którymi dysponuje jednostka. Tworzenie i wykonanie programu odbywa się w pamięci roboczej i obciąża ją proporcjonalnie do jego złożoności. Efektem tego etapu jest wygenerowanie konkluzji, sformułowanej w języku abstrakcyj nych symboli. Dlatego potrzebny jest jeszcze trzeci etap, w którym następuje przełożenie wniosku z formy abstrakcyjnej na język przesłanek. Jeśli jest to język potoczny, wniosek zostaje „przetłumaczony” z odwołaniem do treści użytych w przesłankach. Najpełniejszymi bodaj postaciami teorii abstrakcyjnych reguł jest koncepcja Braine’a i współpracowników (Braine, 1978; Braine, O ’Brien, 1991; Braine, Rumain, 1983) oraz Ripsa (1979,1983,1994). Według Braine’a ludzie w sposób naturalny myślą logicznie, a błędy popełniają raczej sporadycznie. Ważnym elementem tej teorii jest pojęcie rozumowania bezpośredniego (direct reaso ning), które polega na zastosowaniu w konkretnej sytuacji ogólnych schematów opartych na abstrakcyjnych regułach. Jeśli rozumowanie ma charakter bez pośredni, wnioskowanie musi być poprawne, z nielicznymi wyjątkami, np. kiedy przesłanki nie zostały właściwie zinterpretowane lub kiedy wymagania zadania przekraczają ograniczoną pojemność pamięci roboczej. Schematy biorące udział w rozumowaniu bezpośrednim dzielą się na rdzenne (core schemata) i posiłkowe (feeder schemata). Schematy rdzenne, takie jak modus ponens, korzystają z fundamentalnych reguł logicznych, podczas gdy schematy posiłkowe pełnią funkcje pomocnicze i są stosowane do generowania wniosków wspomagających działanie schematów podstawowych. Braine przewiduje ponadto istnienie trzeciej kategorii schematów: reguł niezgodności. Są one stosowane do testowania zawartości pamięci roboczej pod kątem detekcji wniosków nie uprawnionych, np. wewnętrznie sprzecznych (q i nie q). Stosowanie schematów odbywa się pod kontrolą specjalnego programu rozumowania, który ma być zbudowany na zasadach andersenowskiego systemu „produkcji” (Braine, O’Brien, 1991). W przypadku rozumowania pośredniego (indirect reasoning) schematy wnioskowania odpowiadające strukturze problemu wykraczają poza reguły logiki umysłowej. Są to różnorodne schematy nabywane w procesie zmagania
464
Rozdział 10. M yślenie i rozum ow anie
się z zadaniami pochodzącymi z różnych dziedzin. Człowiek nabywa je, a potem z nich korzysta, jeśli są dobrze dopasowane do konkretnego problemu lub wąskiej dziedziny. Ignoruje wówczas schematy logiczne jako gorzej dopasowane do wymagań konkretnej sytuacji, a czerpiące swą siłę raczej z wysokiego pozio mu ogólności i szerokiego spektrum zastosowań. Teoria Braine’a postuluje trzy rodzaje i źródła powstawania błędów w rozumowaniu. Pierwszy z nich, to błędy rozumienia, który wynika z niepo prawnej interpretacji związków między informacjami zawartymi w przesłankach i ewentualnie we wniosku. Na przykład błędy negacji poprzednika i potwier dzenia następnika można wyjaśnić nie jako błąd programu rozumowania, ale błąd rozumienia przesłanek. Jego źródłem są m.in. tzw. założenia konwersacyjne, wynikające z praktyki życia codziennego (O’Brien, 1995). Przykładowo, w rozumowaniu warunkowym: Jeżeli będzie padać deszcz, to Zosia zmoknie, Nie pada deszcz, Więc Zosia nie zmoknie, popełniono błąd negacji poprzednika. Może on wynikać z reinterpretacji pierwszej przesłanki, która przyjmuje postać: „Jeżeli nie pada deszcz, to Zosia nie będzie mokra”. Po takim przekształceniu dalsze rozumowanie jest już po prawnym użyciem trybu modus ponens. Pierwszy opisał to zjawisko Grice (1975), tłumacząc je zasadą kooperacji powszechnie stosowaną podczas kon wersacji (por. rozdz. 13). W myśl tej zasady, prowadząc dyskurs ludzie mówią sobie to, co myślą, że rozmówca nie wie, a wiedzieć powinien. Nadawca komu nikatu domyśla się, czego słuchacz nie wie, a chciałby lub powinien wiedzieć. Z kolei słuchacz zakłada, że to, co słyszy, zostało tak spreparowane, aby ułatwić mu odbiór potrzebnych informacji. Kooperacja jest więc dwustronna, a opiera się o szereg milczących, niewypowiedzianych przesłanek i wniosków. Zatem implikacja: „Jeżeli będzie padać, to Zosia zmoknie”, z punktu widzenia słuchacza powinna zawierać wszystkie informacje istotne w danym kontekście. Słuchacz zakłada, że w opisanej sytuacji padający deszcz jest jedynym czyn nikiem, który może sprawić, że Zosia zmoknie. Innymi słowy, w myśl zasady kooperacji słuchacz milcząco przyjmuje za coś oczywistego, że w przesłankach zawarto wszystkie „p”, które mogą implikować „q”. Stąd wynika akceptacja końcowego wniosku („Zosia nie zmoknie”), który nie wynika z „oficjalnych” przesłanek, ale jest całkowicie logiczny po przyjęciu dodatkowych, milczących założeń. Drugi rodzaj błędów w rozumowaniu to błędy przetwarzania, które powstają w wyniku dekoncentracji uwagi albo niskiej wydolności procesu prze chowywania i obróbki informacji w pamięci roboczej. Ryzyko jego wystąpienia jest szczególnie duże, gdy zadanie wymaga aplikacji nadmiernie złożonego programu rozumowania. Trzecia kategoria to błędy nieadekwatności heurystyki. Wynikają one z niewłaściwego doboru strategii, które odpowiadają za koordy nację schematów rozumowania w konkretnej sytuacji. Niewłaściwie dobrana strategia jest źle dopasowana do wymagań zadania, przez co całe rozumowanie okazuje się zawodne. Nie wynika to jednak z nieadekwatności schematów rozumowania, ani tym bardziej z ich braku, ale z niewłaściwego ich uporząd kowania i skoordynowania.
10.7. Teorie rozum ow ania dedukcyjnego
465
Teoria reguł znalazła poparcie w bogatym materiale empirycznym. Po pierwsze, wykazano, że niektóre reguły, np. modus ponens, są stosowane poprawnie nawet wówczas, gdy przesłanki mają postać abstrakcyjną lub nawet absurdalną z punktu widzenia wiedzy i doświadczenia potocznego. Przemawia to za tezą o istnieniu naturalnej zdolności umysłu ludzkiego do implementacji niektórych reguł logiki mentalnej, a tym samym - za tezą o formalnym cha rakterze naszego rozumowania. W zależności od ujęcia teoretycznego, wyróżnia się 15-20 takich reguł (Evans, 1991). Po drugie, stwierdzono, że różnice w po prawności stosowania niektórych trybów, np. modus ponens i modus tollens, zadowalająco tłumaczy odmienna złożoność programów rozumowania, leżąca u podłoża ich aplikacji. Braine i współpracownicy (1984) zaobserwowali wysoką korelację między poziomem trudności zadań logicznych, mierzonym liczbą błędów, a przewidywaną przez teorię reguł liczbą operacji w programie rozumowania. Po trzecie, wprowadzając dodatkowe reguły, np. pragmatyczne - jak wspomniana zasada kooperacji Grice’a - można wyjaśnić wiele błędów popełnianych w zadaniach wymagających rozumowania. Z jednej strony jest to zaleta teorii, bowiem poszerza jej zdolność do wyjaśnienia różnorodnych danych empirycznych, ale z drugiej strony wskazuje na zbyt ogólny zakres jej twierdzeń. Twierdzenia teorii reguł można stosunkowo łatwo rozbudować albo uszczegółowić post hoc, już po uzyskaniu danych empirycznych, przez co są one trudne do falsyfikacji (Johnson-Laird, Byrne, Schaeken, 1992). Jedno z bodaj najważniejszych założeń teorii, właściwie niefalsyfikowalne, dotyczy formy reprezentacji świata w postaci abstrakcyjnych sądów. Jak dowodzono w rozdz. 2.4, jest to tylko jedno ze stanowisk w sporze o naturę reprezentacji. Elegancja wyjaśnień oraz korzyści teoretyczne i metodologiczne, które stąd płyną, nie wydają się argumentem przesądzającym. Dlatego w wyniku krytyki tego po dejścia powstała koncepcja alternatywna - teoria modeli umysłowych. 10.7.2. Teoria modeli mentalnych Od końca lat 70. XX w. Philip Johnson-Laird z zespołem (Johnson-Laird, 1983; 1994; Johnson-Laird, Byrne, 1991; Johnson-Laird, Byrne, Schaeken, 1992; Johnson-Laird, Steedman, 1978) rozwija koncepcję alternatywną w stosunku do teorii reguł: teorię modeli mentalnych. W zasadzie każda z tych teorii operuje zupełnie różnymi twierdzeniami, mimo że ich ambicją jest wyjaśnienie tych samych danych empirycznych. W klasycznych już badaniach (Johnson-Laird, Steedman, 1978) popro szono osoby badane o rozwiązywanie sylogizmów, np.: Każdy artysta jest pszczelarzem. Niektórzy pszczelarze są mądrzy. Dzięki analizie wypowiedzi osób badanych, autorzy stwierdzili, że ludzie często wyobrażają sobie konkretne przykłady pojęć użytych w sylogizmach wraz z zachodzącymi między nimi relacjami. Te wyobrażenia są umysłowymi mode lami sytuacji opisanej w zadaniu, bądź zaistniałej w rzeczywistości. Okazało się również, że jeśli przesłanki wnioskowania można zinterpretować na wiele sposobów, to osoby badane wyobrażają sobie więcej modeli (zob. ryc. 10.6)
466
Rozdział 10. M yślenie i rozum ow anie
Ryc. 10.7. Modele umysłowe poprawnie ilustrujące relacje między terminami sylogizmu: „Każdy artysta jest pszczelarzem, Niektórzy pszczelarze są mądrzy”. Wyraźnie widać, że na podstawie powyższych przestanek nie możemy nic pewnego powiedzieć o mądrości artystów. Sylogizm jest więc niekonkluzywny. Gdybyśmy poprzestali na pierwszym modelu umysłowym, wyciągnęlibyśmy nieuprawniony wniosek: „Niektórzy artyści są mądrzy”.
W koncepcji Johnson-Lairda rozumowanie polega na konstruowaniu i manipulacji tzw. modelami mentalnymi (mental models). Model mentalny jest ąuasi-analogową reprezentacją sytuacji problemowej, opisanej w zadaniu logicznym albo dostrzeżonej w sytuacji życia codziennego, która zawiera
10.7. Teorie rozum ow ania dedukcyjnego
467
minimalną ilość informacji potrzebnej do zrozumienia tejże sytuacji. Repre zentacja ta ma charakter nietrwały i jest tworzona ad hoc na potrzeby konkretnej sytuacji (zob. rozdz. 2.4.3). Model umysłowy można scharakteryzo wać za pomocą czterech właściwości. Po pierwsze, dostrzeżone elementy sytuacji problemowej mają swoje odpowiedniki w modelu umysłowym. Owe odpowiedniki są symbolami elementów sytuacji problemowej. Przykładowo, w sylogizmie: Adam jest wyższy od Bartka, Bartek jest niższy od Cezarego, Który z panów jest najwyższy?, są to symbole poszczególnych osób, a nie ogólnych pojęć, np. człowieka. Reprezentacje składające się na model umysłowy to mniej lub bardziej konkretne egzemplarze pojęć. Sposób ich reprezentowania, czyli poziom „konkretności” egzemplarzy, jest zoptymalizowany ze względu na możliwość ujmowania relacji między obiektami, o których mowa w przesłankach. Po drugie, model albo mo dele umysłowe odzwierciedlają strukturę sytuacji problemowej. Chodzi szcze gólnie o związki zachodzące między symbolami elementów zadania. Relacje te są reprezentowane analogowo w stosunku do konkretnej sytuacji. W powyższym przykładzie relacją reprezentowaną w umyśle jest „bycie niższym/ wyższym”. Po trzecie, niekiedy możliwe jest zbudowanie większej liczby modeli umysłowych. W analizowanym przykładzie można zbudować trzy modele umysłowe, trafnie odpowiadające przestankom (zob. ryc. 10.7). Wystarczy jednak użyć już dwóch z nich, aby wywnioskować, że sylogizm jest niekonkluzywny. Człowiek nie konstruuje zazwyczaj wszystkich możliwych modeli w danej sytuacji. Najczęściej, szczególnie w realnej rzeczywistości, buduje tylko jeden model, zwany początkowym (Johnson-Laird, Byrne, Schaeken, 1992). Budowa nie innych możliwych w danej sytuacji modeli zachodzi dopiero wówczas, gdy model początkowy nie pozwala na wyciągnięcie żadnej konkluzji. Przykładowo, implikacja: „Jeżeli jest ciemno i cicho, to idę spać”, rozumiana jest jako opis pewnej sytuacji zawierającej trzy elementy: „ciemno”, „cicho”, „idę spać”. Większość ludzi zrozumie tę implikację jako opis tylko jednej możliwej sytuacji, co symbolicznie można przedstawić następująco: Ciemno
cicho
idę spać
Taką pierwszą narzucającą się interpretację sytuacji nazywa się modelem początkowym. Nawet jeśli zdajemy sobie sprawę z innych możliwości, nie budujemy dodatkowych modeli mentalnych, dopóki nie zajdzie taka koniecz ność. Implikacja opisuje jednak sytuację hipotetyczną, więc nie wiemy czy teraz jest ciemno czy jasno, głośno czy cicho, a tym bardziej czy osoba wypowiadająca to zdanie jest tak śpiąca, że ma ochotę pójść spać pomimo tego, że jest jasno. Te pozostałe możliwości mogą być odzwierciedlone w innych modelach umysło wych, np.: Nie ciemno Nie ciemno
nie cicho cicho
nie idę spać idę spać
Mamy już więc trzy sytuacje, które są możliwe wtedy, gdy implikacja: „Jeżeli jest ciemno i cicho, to idę spać”, jest prawdziwa. Gdy dowiemy się, że autor wy-
468
Rozdział 10. M yślenie i rozum ow anie
Adam
Bartek
Cezary
Adam
Bartek
Cezary
Adam
Bartek
Cezary
Ryc. 10.8. Modele umysłowe poprawnie ilustrujące relacje między terminami sylogizmu: „Adam jest wyższy od Bartka. Bartek jest niższy od Cezarego”.
powiedzi idzie spać, to korzystając tylko z modelu początkowego, wyciągnęli byśmy błędny wniosek, iż jest ciemno i cicho, bowiem tylko te dwie informacje są w nim reprezentowane. Popełnilibyśmy wówczas błąd potwierdzenia następnika. Dopiero gdy uświadomimy sobie, że implikacja nic nie mówi 0 tym, co robi wypowiadająca ją osoba, kiedy jest jasno (nie ciemno) i głośno (nie cicho). Być może też idzie wtedy spać, bo to zależy od jej senności, a nie tylko od warunków zewnętrznych. Właściwy wniosek polegałby więc na stwierdzeniu, że wiedząc iż wypowiadający implikację śpi, nic pewnego nie można powiedzieć o tym, czy jest ciemno, czy jasno, albo głośno czy cicho. Dodatkowymi warunkami skłaniającymi do konstruowania modeli alterna tywnych są, zdaniem Johnson-Lairda, niewielka złożoność sytuacji problemowej 1 niezbyt duże obciążenie pamięci roboczej wymaganiami ze strony innych zadań. Ponieważ każdy kolejny model przyczynia się do przeciążenia WM, ludzie zwykle poprzestają na skonstruowaniu modelu początkowego. Jest to,
10.7. Teorie rozum ow ania dedukcyjnego
469
rzecz jasna, źródłem błędów. Błędy w rozumowaniu nie wynikają z wadliwej interpretacji albo reprezentacji sytuacji w modelu umysłowym, a raczej z trudności w konstruowaniu większej liczby modeli i operowaniu nimi. Przy czynami tych trudności są elementarne ograniczenia poznawcze, przede wszystkim niewielka pojemność WM. Czwartą właściwością modeli umysłowych jest możliwość włączenia do nich niektórych elementów reprezentacji obiektów, o których mowa w prze słankach. Johnson-Laird koncentruje się szczególnie na znaku negacji. W im plikacji: „Jeśli jest ciemno i cicho, to idę spać”, element „ciemno” albo „cicho” w niektórych modelach mentalnych wymaga zanegowania („nie ciemno” albo „nie cicho”), a negacja wchodzi w skład modelu umysłowego, zwiększając liczbę tworzących go elementów. Rozumowanie, w myśl tej teorii, odbywa się w trzech etapach. Pierwszy polega na skonstruowaniu modelu stanu rzeczy opisanego w przesłankach. Następny etap to sprawdzenie, czy domniemany wniosek jest zgodny z tym modelem. Na końcu pojawia się próba falsyfikacji konkluzji, poprzez skon struowanie alternatywnych modeli wynikających z podanych przesłanek. Więk sza złożoność problemu, to więcej modeli mentalnych, które trzeba zestawić w pamięci roboczej. Większa ich liczba wiąże się z ryzykiem przeciążenia WM, a więc i większym prawdopodobieństwem popełnienia błędu (zob. ramka 10.2). Ramka 10.2
Weryfikacja teorii modeli mentalnych Teorie rozumowania zgodnie przyjmują, że wnioskowanie odbywa się z udziałem pamięci roboczej. Co więcej, wysoki poziom złożoności zadania logicznego może być czynnikiem przeciążającym WM, prowadząc tym samym do błędów. Przy puszczenia te wielokrotnie potwierdzono, uzyskując pozytywne korelacje między poziomem wykonania zadań dedukcyjnych a indywidualną pojemnością pamięci roboczej (Barrouillet, 1996; Kyllonen, Christal, 1990). Podobne rezultaty uzyskano stosując różnorodne zadania wymagające rozumowania warunkowego (Barrouillet, Lecas, 1999; Toms, Morris, Ward, 1993). Markovits, Doyon i Simoneau (2002) poddali weryfikacji predykcje teorii modeli mentalnych, oparte na szczegółowej analizie związków między rozumowa niem a różnicami indywidualnymi w zakresie funkcjonowania różnych rodzajów pamięci roboczej. W teorii abstrakcyjnych reguł w zasadzie nie ma potrzeby odwoływania się do wzrokowej pamięci roboczej, nawet jeśli treść zadań ma postać obrazową. Przesłanki implikacji „tłumaczone” są w pierwszej fazie rozumowania na abstrakcyjny język sądów. Dalsze ich przetwarzanie, wymagające aplikacji reguł logicznych, odbywa się wyłącznie z udziałem werbalnej pamięci roboczej (i oczy wiście centralnego systemu wykonawczego). Z teorii abstrakcyjnych reguł wynika zatem, że poziom wykonania zadań wymagających rozumowania, powinien korelować dodatnio z pojemnością werbalnej pamięci roboczej. Korelacji takiej nie przewiduje się w wypadku rozumowania i wzrokowo-przestrzennej pamięci ro boczej. Bez znaczenia dla poziomu obciążenia różnych rodzajów pamięci roboczej powinien być również rodzaj materiału: konkretny czy abstrakcyjny, ze względu na wykorzystanie w obu przypadkach zunifikowanych reprezentacji preskryptywnych.
470
Rozdział 10. Myślenie i rozumowanie
W teorii modeli mentalnych zakłada się z kolei ścisły związek zdolności prze strzennych z rozumowaniem (Johnson-Laird, 1985), o ile quasi-analogowa repre zentacja sytuacji problemowej dotyczy materiału konkretnego. W zdaniach uwzględniających konkretną treść powinien zatem wystąpić pozytywny związek efektywności rozumowania z pojemnością wzrokowo-przestrzennej pamięci robo czej. Podobny związek nie miałby miejsca w przypadku zadań o treści abstrak cyjnej. Z kolei pojemność werbalnej pamięci roboczej byłaby istotna zarówno w wypadku zadań konkretnych, jak i abstrakcyjnych, ze względu na semantyczny charakter procesu wnioskowania. Autorzy cytują m.in. twarde dane, pochodzące z badań z użyciem neuroobrazowania techniką fMRI, wskazujące na angażowanie różnych struktur w trakcie rozumowania na materiale abstrakcyjnym i konkretnym (Goei i in., 2000, za: Markovits, Dyon, Simoneau, 2002). Ich zdaniem już te rezultaty stanowią znaczące potwierdzenie teorii modeli. W badaniach własnych Markovits i współpracownicy użyli zadań wymagają cych rozumowania warunkowego, manipulując konkretnością i abstrakcyjnością ich treści. Użyli również zadań poznawczych, angażujących werbalną i wzrokowo-przestrzenną pamięć roboczą. Uzyskane wyniki okazały się zgodne z większością predykcji formułowanych na podstawie teorii modeli mentalnych. Pojemność wer balnej pamięci roboczej korelowała słabo, ale istotnie z rozumowaniem w przypadku materiału konkretnego (średnio r = 0,20) i abstrakcyjnego (r = 0,24). Natomiast pojemność wzrokowo-przestrzennej pamięci roboczej korelowała wyłącznie z rozumowaniem w przypadku materiału konkretnego (średnio r = 0,19). W ana lizie korelacji cząstkowych pojemności obu rodzajów pamięci roboczej z po prawnością użycia różnych trybów wnioskowania okazało się jednak, że użycie trybu modus tollens nie koreluje z żadną z miar WM, zarówno w zadaniach kon kretnych, jak i abstrakcyjnych. Korelacja ta ujawniła się dopiero, kiedy podzielono osoby badane na dwie grupy, ze względu na kompetencje w zakresie rozumo wania. W grupie osób bardziej kompetentnych udało się autorom uzyskać istotną korelację pomiędzy pamięcią werbalną a poprawnością użycia trybu modus tollens: r = 0,14 w zadaniach konkretnych i r = 0,24 w zadaniach abstrakcyjnych. Zauważmy jednak, że uzyskane korelacje są bardzo słabe, a tryb modus tollens „zachowuje się” niezupełnie zgodnie z teorią modeli mentalnych. Różnice w zakre sie sprawności jego użycia zgodne są również z predykcjami teorii reguł. Ogólnie rzecz ujmując: wynik meczu jest remisowy, ze wskazaniem na przewagę zawod ników z grupy preferującej teorię modeli mentalnych.
Racjonalność, zdaniem Johnson-Lairda (Johnson-Laird, Byrne, 1991), nie polega na stosowaniu abstrakcyjnych reguł logicznych, lecz poszukiwaniu więk szej liczby modeli, prawidłowo ujmujących informacje zawarte w przesłankach. Chodzi w szczególności o uwolnienie się od modelu początkowego, czemu służy poszukiwanie kontrprzykładów. Właśnie ten mechanizm jest szczególnym prze jawem racjonalności człowieka. Przykładowo, błąd potwierdzenia następnika i negacji poprzednika jest wyjaśniany przez Johnson-Lairda właśnie w odwoła niu do mechanizmu poszukiwania kontrprzykładów. W analizowanym już przykładzie:
10.7. Teorie rozumowania dedukcyjnego
471
Jeżeli będzie padać deszcz, to Zosia zmoknie, Pada deszcz, Zatem, ..., łatwo jest wyprowadzić poprawny wniosek, bowiem model początkowy wy starcza do zastosowania trybu modus ponens. Natomiast gdy „nie pada deszcz” wniosek „Zosia nie zmoknie” jest - jak wiemy - możliwy, ale nie jedyny. Pozostanie przy modelu początkowym generuje błąd negacji poprzednika. Wystarczy jednak choćby jeden model umysłowy zawierający kontrprzykład (np. Zosia zmokła, mimo słonecznej pogody, gdyż postąpiła nieroztropnie, wycho dząc z domu w śmigus-dyngus), aby odrzucić powyższe wnioskowanie jako zawodne. Ten sam model pozwala również na uniknięcie błędu potwierdzenia następnika: z tego, że Zosia jest mokra, nie można wyciągnąć wniosku, że pada deszcz. Ale jeśli Zosia nie zmolda, to z pewnością nie pada deszcz. Gdyby jednak padał, a Zosia tym razem roztropnie przeczekała ulewę u koleżanki, to cała implikacja byłaby fałszywa. Szukanie kontrprzykładów może być zatem również mechanizmem falsyfikacji hipotez. W ostatnich kilkunastu latach zgromadzono pokaźny materiał empiryczny, przemawiający „za” i „przeciw” koncepcji modeli mentalnych. Teoria JohnsonLairda wykazuje kilka interesujących zalet. Po pierwsze, wydaje się bardziej trafna ekologicznie niż teoria reguł. Nie wymaga przyjmowania założeń wątpli wych (np. o naturalnej zdolności do implementacji reguł logicznych) lub niefalsyfikowalnych (np. o propozycjonalnej reprezentacji treści zadań logicznych). Po drugie, teoria modeli bardzo dobrze radzi sobie z wyjaśnieniem błędów negacji poprzednika i potwierdzenia następnika implikacji, nie potrzebując w tym celu właściwie żadnych dodatkowych założeń. Teoria stwierdza po prostu, że ludzie mają tendencję do wyciągania wniosków na podstawie począt kowego, i najczęściej jedynego, modelu umysłowego, co zresztą koresponduje z powszechnie znaną zasadą ekonomii poznania. Po trzecie, teoria modeli świetnie sobie radzi z wyjaśnieniem wpływu treści i kontekstu na wynik rozu mowania. Jeśli treść zadań logicznych jest bardziej konkretna, to możliwe jest wykorzystanie zarówno reprezentacji obrazowych, jak i werbalnych oraz użycie wzrokowo-przestrzennej i werbalnej pamięci roboczej. W wypadku treści abstrakcyjnych, korzystać można wyłączne z kodów werbalnych, które re prezentują nie tylko same pojęcia, ale i relacje między nimi. Z kolei jeśli treść zadań jest bliska doświadczeniu człowieka i została osadzona w znanym kon tekście, to łatwiejsze staje się zbudowanie większej liczby adekwatnych modeli mentalnych oraz sprawne operowanie nimi. Być może modeli nie jest wtedy więcej, ale są one trafniej dobrane. Ponieważ zgodnie z teorią rozumowanie ma charakter semantyczny, najpierw konstruowane są modele najbardziej zgodne ze specyficznością sytuacji, a te absurdalne dopiero w dalszej kolejności. Zna jomość sytuacji pozwala również na łatwiejsze odnajdywanie kontrprzykładów, szczególnie jeśli dysponujemy wiedzą, gdzie ich szukać. Wpływ treści zadań i kontekstu na efektywność rozumowania wynika wprost z samej istoty modelu umysłowego. Nic więc dziwnego, że w zdaniach o treści abstrakcyjnej i oderwa nej od jakiegokolwiek kontekstu ludzie popełniają zdecydowanie najwięcej błędów. I po czwarte, teoria modeli jest stosowana, choć nie zawsze z po wodzeniem, do wyjaśnienia szerokiej gamy złożonych procesów poznawczych
472
Rozdział 10. Myślenie i rozumowanie
człowieka: od różnych rodzajów rozumowania dedukcyjnego i indukcyjnego po rozwiązywanie problemów. Wiele uwag krytycznych dotyczy zarówno niedopracowania teorii, jak też niektórych kontrowersyjnych tez. Przykładowo, jednym z wielu zarzutów sta wianych teorii modeli jest to, że właściwie nie opisuje mechanizmu poprawnego rozumowania, lecz koncentruje się na wyjaśnieniu błędów. Inny przykład: wiadomo, że modele mentalne (reprezentacje nietrwałe) zależą od posiadanej wiedzy (reprezentacje trwałe), co - jak już wyjaśniano - może istotnie wspo magać poprawność rozumowania. Teoria modeli nie tłumaczy jednak mecha nizmu tej zależności. Niejasny jest również mechanizm poszukiwania kontr przykładów, a nawet natura samych modeli mentalnych. Są też zarzuty bardziej zasadnicze. Na przykład Bonatti (1994) zauważa, że liczba modeli umysłowych, które mogą albo powinny być wygenerowane w danej sytuacji, jest trudna do jednoznacznego wyliczenia. Problem w tym, że wiele predykcji sformułowanych na podstawie teorii modeli mentalnych opiera się na takich kalkulacjach. Wnikliwego porównania teorii reguł i teorii modeli mentalnych dokonał Robert Mackiewicz (2000).
10.8. Rozumowanie indukcyjne Istotą rozumowania indukcyjnego jest dokonywanie nieuprawnionych uogólnień. Nieuprawnionych, bo wyprowadzonych na podstawie skończonej liczby ob serwacji, a przybierających postać prawa ogólnego. Wszelkie cytowane w tym podręczniku wnioski z badań, podobnie jak wyniki obserwacji, doświadczeń i eksperymentów innych naukach empirycznych, mają charakter indukcyjny. Zawsze istnieje pewne prawdopodobieństwo, zwykle jednak niewielkie, że wy ciągnięty na drodze indukcji wniosek okaże się błędny. Z drugiej jednak strony, indukcja jest sposobem wnioskowania, który, jak to ujęli Holyoak i Nisbett (1988, s. 1), „poszerza naszą wiedzę w obliczu niepewności”. W psychologii poznawczej badania nad rozumowaniem indukcyjnym prowadzi się w trzech obszarach: (1) rozumowania związanego z testowaniem hipotez, (2) rozumowania przez analogię i transferu z wykorzystaniem analogii w rozwiązywaniu problemów (zob. rozdz. 11) oraz (3) podejmowania decyzji w obliczu niepewności (zob. rozdz. 12). W niniejszym podrozdziale omówimy tylko dwa pierwsze obszary. 10.8.1. Testowanie hipotez Pierwsza grupa badań nad testowaniem hipotez dotyczy tzw. reguł relacyjnych (relational rules). Wason (1960) prezentował osobom badanym ciągi liczb, zestawione według prostej reguły, np. 2 4 6. Zadanie polegało na podaniu innego zestawu trzech liczb, według zasady odpowiadającej - zdaniem osób badanych regule ciągu wzorcowego oraz próbie werbalizacji reguły. Każdorazowo eksperymentator weryfikował poprawność sformułowanej reguły, informując badanych o poprawności podanego przez nich zestawu i zwerbalizowanej reguły. Pomimo prostoty reguły ciągu wzorcowego, poziom poprawności wy konania zadania okazał się stosunkowo niski. Zaledwie 21% badanych od
10.8. Rozumowanie indukcyjne
473
krywało regułę w pierwszej próbie. Wason wyjaśniał to zjawisko przyjmowa niem tzw. tendencji konfirmacyjnej (confirmation bias). Osoby badane szybko stawiały hipotezę, a następnie generowały ciąg zgodny z jej treścią. Tworzyły więc wyłącznie ciągi, które mogły potwierdzić wstępną hipotezę. W powyższym przykładzie można było postawić hipotezę, że pierwsza liczba została najpierw przemnożona przez dwa (2 • 2 = 4), a potem przez trzy ( 2 - 3 = 6) itd. Osoby badane często tworzyły ciągi zgodne z tą hipotezą, np. 3 6 9 albo 10 20 30. Takie reakcje były poprawne, choć przyjęta i werbalizowana reguła - błędna. Dalsze generowanie ciągów zgodnych z tą regułą było niepotrzebne, a mimo to osoby badane nadal podejmowały takie próby. W rzeczywistości reguła była bardzo prosta: były to dowolne trzy liczby ustawione w porządku rosnącym. W zde cydowanej większości badani nie generowali ciągów, które mogłyby falsyfikować wymyśloną przez nich regułę. Załóżmy, że ktoś zamiast 3 6 9, podałby ciąg 3 6 7, niezgodny z regułą „x • 2, x • 3 itd”. Gdyby uzyskał informację zwrotną, że ciąg spełnia regułę, wiedziałby, że wstępna hipoteza była fałszywa. Dla Wasona (1968) była to doskonała ilustracja tego, jak nie należy testować hipotez naukowych. Jeśli nasza hipoteza jest błędna, bowiem poszukiwana zasada jest prostsza, niż nam się wydaje, gromadzenie przypadków potwierdzających hipo tezę prowadzi na manowce. Rossi, Caverni i Giotto (2001) dokonali pewnej zmiany w omawianej pro cedurze. Obok klasycznego zadania 2 4 6 Wasona, zastosowali jego odmianę, w której eksperymentator prezentował ciąg cyfr niezgodny z regułą (kontrprzykład). Autorzy stwierdzili, że w obu zadaniach osoby badane nadal formu łują hipotezy oparte o wspólne, wyabstrahowane cechy ciągu i testują wyłącznie przypadki zgodne z hipotetyczną regułą. Jednakże ze względu na większą war tość informacji falsyfikującej regułę, uzyskanej w zmodyfikowanej wersji zada nia, istotnie szybciej odkrywano regułę właściwą. W niektórych przypadkach strategia konfirmacji może jednak okazać się bardziej skuteczna niż strategia falsyfikacji. Klayman i Ha (1987) twierdzą, że w zadaniu 2 4 6 Wasona poszukiwana reguła jest prostsza od tych, które osoby badane wstępnie przyjmują, w związku z czym strategia konfirmacyjna zawodzi. Jednak w innych wypadkach, kiedy nieznana reguła jest bardziej restrykcyjna (np. liczby rosnące o dwa, ale nie większe niż 10), osoby badane przyjmują początkowe hipotezy, które zakładają znacznie prostszą regułę. Zastosowanie strategii konfirmacyjnej pozwala na szybką falsyfikację prostszej zasady i skłania do poszukiwania nowych zasad, co dość szybko prowadzi do odkrycia właściwej reguły. W praktyce oznacza to, że strategia konfirmacji może być bardziej efektywna, gdy potencjalnych reguł jest niewiele. Gdy jest ich dużo, konieczna jest strategia falsyfikacji. Konkludując, strategia konfirmacyjna przyjmowana jest zdecydowanie częściej niż falsyfikacyjna. W pewnych sytuacjach, analogicz nych do tych z zadania 2 4 6 Wasona, jest ona nieskuteczna, choć utwierdza ludzi w skłonności do utrzymywania wstępnej hipotezy. 10.8.2. Rozumowanie przez analogię Analogia to związek między dwoma obiektami, oparty na podobieństwie ich wewnętrznej struktury lub podobieństwie relacji zachodzących w obrębie po
474
Rozdział 10. Myślenie i rozumowanie
równywanych członów. Przykładowo, „psychoterapia jest jak wyciąganie drzaz gi z palca”, bowiem łączy je podobieństwo celu (usunięcie przyczyny proble mu), okoliczności (może im towarzyszyć ból), skutków (pozbycie się kłopotów, ale może pozostać „blizna”) itd. Formalnie rzecz biorąc „A jest analogiczne względem B, jeśli A i B są zbiorami (elementów rzeczywistych, funkcji, atrybutów) i jeśli relacja Ri porządkująca elementy zbioru A jest podobna do relacji Ri’ porządkującej elementy zbioru B” (Nęcka, 1984, s. 169/170). Analogia wymaga głównie podobieństwa wewnętrznych struktur porówny wanych członów, a nie związku między obiektami opartego na podobieństwie zewnętrznym, które może, ale nie musi być podobieństwem typu analogiczne go (Gentner, 1983). Analogia nie zachodzi również wtedy, gdy obiekty są podobne ze względu na pojedynczą cechę. Na przykład wszystkie przedmioty czerwone są do siebie podobne ze względu na kolor, ale to nie znaczy, że są analogiczne. Poprzez analogię nabywamy nową wiedzę i pojęcia (Blanchette, Dunbar, 2002). Dzięki zdolności poznawczego ujmowania związku analogii, człowiek próbuje przewidywać różne zdarzenia oraz stany rzeczy i może adekwatnie reagować w wielu sytuacjach. Rozumowanie przez analogię można więc uznać za jeden z centralnych mechanizmów regulacji psychicznej (Biela, 1981). Niektórzy badacze uważają, że posługiwanie się analogią jest szczególnym ro dzajem indukcji, bowiem najpierw wymaga wnioskowania od szczegółu do ogółu (abstrahowanie relacji między członami analogii w dziedzinie X), a następ nie od ogółu do szczegółu (przeniesienie wyabstrahowanej relacji na przestrzeń semantyczną dziedziny Y). Analogia jest szczególnym przypadkiem zjawiska transferu wiedzy, czyli przeniesienia wiedzy odnoszącej się do pewnej dziedziny na zupełnie inną dziedzinę. Transfer wiedzy może mieć charakter pozytywny, jeśli dzięki analogii zwiększamy szanse wypracowania rozwiązania problemu, lub negatywny, jeśli podobieństwo dwóch sytuacji problemowych skłaniające nas do zastosowania podobnych rozwiązań, okazuje się pozorne. Aby przeniesienie wiedzy było możliwe, konieczne jest dostrzeżenie podobieństwa między problemami (Roberts, 2001; zob. rozdz. 11.7.2). Teoretycy spierają się, jakie czynniki są nie zbędne do dostrzeżenia tak rozumianego podobieństwa. Dedre Gentner (1983), autorka teorii odwzorowania struktury (structure mapping theory), twierdzi, że najważniejsze jest dostrzeżenie podobieństwa relacji zachodzących między elementami w obrębie dwóch różnych dziedzin. Aby sensownie posługiwać się analogią, nie wystarczy proste stwierdzenie, że dwa zjawiska są do siebie po dobne pod względem pewnych cech, niezbędne jest ustalenie czy między dwoma dziedzinami występuje odpowiedniość relacji ich wewnętrznych struktur. Na przykład, kiedy czytamy, że atom jest jak układ słoneczny, musimy przede wszystkim zwrócić uwagę na to, że w obrębie części składowych zarówno atomu, jak i układu słonecznego, zachodzą podobne relacje: mniejsze obiekty poruszają się po stałych trajektoriach wokół obiektu większego. Skupienie się na cechach zewnętrznych, które w tym przypadku nie przystają do siebie (słońce to gigantyczna, rozżarzona kula gazu, zupełnie niepodobna do jądra atomu), uniemożliwi nam prawidłowe zrozumienia budowy atomu (Gertner, Holyoak, 1997). Konkurencyjne stanowisko zakłada, że uchwycenie odpowiedniości mię dzy strukturami dwóch dziedzin nie jest wystarczające do skutecznego wyko
10.8. Rozumowanie indukcyjne
475
rzystania analogii. Potrzebna jest ponadto analiza podobieństw niższego rzędu, w tym podobieństwa cech powierzchownych dzielonych przez dwie dyscypliny lub dwie sytuacje problemowe (por. Nęcka, 2001). Obecnie uważa się, że w przypadku dziedzin słabo znanych ludzie dostrze gają przede wszystkim podobieństwo zewnętrzne i dopiero wraz z nabywaniem doświadczeń zaczynają zwracać uwagę na podobieństwa w obrębie funkcji czy mechanizmów (Mumford, 1999; por. Gick, Holyoak, 1983). W takim wypadku pomyślne przeniesienie wiedzy zależy od abstrakcyjnych schematów rozumo wania, które są ogólnymi reprezentacjami rozwiązań możliwych do zastosowa nia w różnych sytuacjach. Im bogatsze owe schematy, tym łatwiejsze dostrzeżenie analogii między dwoma dziedzinami (Chen, Mo, 2004). W badaniach eksperymentalnych poszukiwano poznawczych mechaniz mów rozumowania przez analogię zarówno w funkcjonowaniu pamięci długo trwałej, jak i w efektywności elementarnych procesów poznawczych. Rumelhart i Abrahamson (1973) testowali hipotezę, w myśl której rozumowanie przez analogię wymaga wydawania sądów na temat podobieństwa pomiędzy po jęciami. Innymi słowy, kluczowe dla dostrzegania analogii między pojęciami byłoby ich podobieństwo. W koncepcji sieci semantycznej stopień podobieństwa zależy od odległości pojęć w niej zawartych. W badaniach Rumelharta i Abrahamsona wykorzystano zadania zawiera jące analogie typu: A : B :: C : xl, x2, x3, x4. Przykładowo: Wielbłąd : Osioł :: Królik : ? Uporządkuj odpowiedzi od najlepiej do najgorzej uzupełniających związek analogii: a. Antylopa b. Bóbr c. Kot d. Tygrys Autorzy przyjęli wielowymiarowy model relacji między pojęciami i uznali, że w przypadku wnioskowania przez analogię zadanie polega na znalezieniu takiego wektora w wielowymiarowej przestrzeni pamięci, który miałby taką samą długość dla relacji A : B, jak i dla relacji C ; x. Rozwiązanie analogii sprowadza się zatem do znalezienia takiego x, którego wektoralna odległość od C jest taka sama jak odległość A od B. Manipulowano eksperymentalnie odległością alternatywnych członów x l - x4, wyprowadzoną z wielowymia rowego modelu Henley (1969). Każda z alternatyw miała inną odległość od pojęcia C (odpowiednio: <0,5 - antylopa-wielbłąd; 0,6-1,0 - sarna-słoń; 1,1-1,5 - słoń-świnia; > 1,5 - mysz-żyrafa, w skali Henley). W powyższym przykładzie model zakładał następujący sposób uporządkowania: B, C, A, D. Wyniki uzyskane przez Rumelharta i Abrahamsona wykazały poprawność założeń modelu. W kolejnych badaniach zmniejszono odległość pomiędzy alternatyw nymi członami (wynosiły one 0,2, 0,25, 0,35, 0,4 w skali Henley). Okazało się, że tolerancja w szacowaniu odległości pomiędzy C a poszczególnymi x-ami wynosi ok. 0,12 jednostki w skali Henley. Zatem nie tylko idealna odległość pomiędzy punktami przestrzeni, ale i odległość między alternatywami decyduje o poprawności wnioskowania przez analogię. Analizy składowych procesu rozumowania przez analogię podjął się Robert Sternberg (1977a). Używając wyrafinowanej metodologii (tzw. analizy kom ponentowej) i bardzo różnorodnych zadań wymagających rozumowania przez
476
Rozdział 10. Myślenie i rozumowanie
analogię, uzyskał najlepsze dopasowanie danych (co najmniej 80% wyjaśnionej wariancji w zakresie poprawności) do modelu obejmującego pięć operacji skła dowych. Rekonstrukcja procesu rozumowania przez analogię obejmowała na stępujące etapy: najpierw osoba badana koduje (encoding) człony A i B analogii. Wtedy następuje przywołanie z pamięci trwałej do pamięci roboczej niektórych atrybutów obu pojęć. Potem w procesie wnioskowania (inference) człony A i B podlegają kompletnemu porównaniu ze względu na atrybuty wydobyte z WM. Z kolei odwzorowanie (mapping) polega na znalezieniu relacji pomiędzy członem A i C analogii, co wymaga wcześniejszego kodowania członu C i przy wołania jego atrybutów. Porównanie atrybutów w ramach odwzorowania prze biega z uwzględnieniem relacji A : B i dokonuje się tylko dla jednej wyróżnionej wcześniej relacji. Jeśli relacja okaże się istotna z uwzględnieniem C, następuje przejście do dekodowania członu D i zastosowania (application) wykrytej relacji w stosunku do tego elementu. Proces kończy się emisją reakcji (response). Jeśli relacja C : D nie spełnia wymagań podobieństwa do relacji A : B, następuje powtórzenie cyklu w pętli rozpoczynającej się odwzorowaniem, z uwzględ nieniem innej relacji A : B, aż do znalezienia poprawnego rozwiązania. Niezależnie od typu zadania, najistotniejszą rolę w efektywności procesu rozumowania przez analogię wydawał się pełnić składnik odwzorowania. W dwóch z trzech eksperymentów Sternberga analiza regresji wykazała, że składnik ten okazał się bardziej istotny od wnioskowania i aplikacji. W trzecim eksperymencie, przeprowadzonym z wykorzystaniem analogii werbalnych, w mo delu regresji czynnik ten również był bardzo istotny i występował zaraz po skład niku wnioskowania. W późniejszych badaniach wykazano, że odwzorowanie jest składnikiem, którego aplikacja stawia przed systemem poznawczym największe wymagania. W porównaniu z pozostałymi składnikami obciążenie pamięci ro boczej i zaangażowanie zasobów uwagi jest wówczas największe (Orzechowski, 2004). Najwięcej czasu zajmowało badanym Sternberga kodowanie poszczegól nych członów zadania, przy czym czas ten w żadnym z eksperymentów nie był pierwszorzędnym predyktorem efektywności rozumowania przez analogię. Omówione dotychczas dwa podstawowe rodzaje rozumowania - tj. rozumowanie dedukcyjne i indukcyjne - wydają się bardzo różne. Można sobie zadać pytanie, czy pojęcie rozumowania jest uprawnione w odniesieniu do obu z nich, bowiem sugeruje ono, że dedukcja i indukcja mają coś wspólnego. Tego zdania są np. Waltz i współpracownicy (1999). Na podstawie badań z zasto sowaniem techniki neuroobrazowania autorzy stwierdzili, że te dwie formy rozumowania mają pewną wspólną cechę. Wymagają tzw. integracji relacyjnej (relational integration), rozumianej jako zestawianie relacji między obiektami albo zdarzeniami i manipulowanie nimi. Tego typu procesy angażowane są zarówno w rozumowaniu dedukcyjnym, jak i indukcyjnym, stanowiąc tym samym ich wspólne podłoże poznawcze (zob. ramka 10.3). Ramka 10.3
Czy coś łączy różne form y rozumowania?
Waltz i współpracownicy (1999) stwierdzili, że różne formy rozumowania mają jedną wspólną cechę. Wymagają tzw. integracji relacyjnej (relational integration), de
10.8. Rozumowanie indukcyjne
477
finiowanej jako zestawianie relacji między obiektami albo zdarzeniami i manipulowa nie nimi. Tego typu procesy zaangażowane są zarówno w rozumowanie deduk cyjne, jak i indukcyjne. Autorzy zebrali mocne dowody eksperymentalne i neurobiologiczne na korzyść tej tezy. W swoich badaniach zastosowali dwie grupy problemów. W zadaniach dedukcyjnych użyli problemów wymagających wniosko wania przechodniego (transitive inference problem), np. „Jan jest wyższy niż Paweł”, „Piotr jest wyższy niż Jan”, „Kto jest najwyższy?”. Zadania indukcyjne po legały na uzupełnianiu brakującego elementu we wzorze prezentowanych bodźców (matrix problem). Badacze dodatkowo manipulowali poziomem trudności obu rodzajów zadań. W badaniu udział wzięły trzy grupy osób: (1) pacjenci z uszko dzoną korą przedczołową, (2) pacjenci z uszkodzoną przyśrodkową częścią płata skroniowego i (3) grupa kontrolna osób zdrowych. W obu przypadkach, zadań dedukcyjnych i indukcyjnych, zwiększenie trudności zadań powodowało znaczne obniżenie poprawności wykonania zadań, ale tylko u pacjentów przedczołowych, podczas gdy w pozostałych dwóch grupach efekt ten nie był istotny (zob. ryc. 10.8). 100 90 N *o
80
5
70
0
60
o o. -o -C
c
50
1CL O a
40
E
(D
O
2
30
20 10
(a) 1 łatwe
2 trudne
Ryc. 10.8. Poprawność wykonania testu wnioskowania przechodniego (a) i testu matryc (b) w grupie pacjentów z uszkodzeniami kory przedczołowej (linia ciągła), pacjentów z uszkodzeniami płata skroniowego (linia kropkowana) i osób zdrowych (linia przerywana). Za: Waltz i in., 1999, s. 122.
Autorzy wyjaśniają uzyskane rezultaty kluczową rolą kory przedczołowej w rozumowaniu, które wymaga ujmowania relacji, a dokładnie integracji relacyjnej. Wnioski te przynajmniej w części potwierdzono później, wykorzystując technikę neuroobrazowania PET w trakcie wykonywania zadania polegającego na wnios kowaniu przechodnim (Baker, Dolan, Frith, 1996). Badacze wychwycili m.in. istotne zaangażowanie grzbietowo-bocznej kory przedczołowej w wykonanie zadania. Podobnie Prabhakaran i współpracownicy (1997), korzystając z techniki funkcjo nalnego rezonansu magnetycznego zarejestrowali aktywność tego samego obszaru kory w wykonanie Testu Matryc Progresywnych Ravena. Zgodnie z zało-
478
Rozdział 10. M yślenie i rozum ow anie
żeniami Ravena, jego test wymaga zdolności edukcji relacji, angażuje więc rozu mowanie indukcyjne. Oczywiście można dyskutować, na jaki zakres podobieństwa między rozumowaniem dedukcyjnym i indukcyjnym wskazują uzyskane rezultaty, bo z pewnością można je tłumaczyć jakimś czynnikiem ogólnym, istotnym w obu typach zastosowanych zadań. Można też, jak uczynili to Waltz i inni (1999), odwołać się do konstruktu centralnego systemu wykonawczego pamięci roboczej, związa nego z zaangażowaniem kory przedczołowej. Ze względu na obniżenie sprawności funkcji tego systemu w uszkodzeniach korowych, pacjenci Waltza nie byli w stanie wykonać bardziej złożonych zdań. Wydaje się więc, iż pochodzący z logiki ścisły podział na dedukcję i indukcję psychologicznie nie jest tak ostry, jak przyjęło się sądzić.
10.9. Inne rodzaje rozumowania 10.9.1. Rozumowanie probabilistyczne W klasycznych teoriach rozumowania przyjmuje się, że jeżeli informacje za warte w przesłankach zdania logicznego, albo po prostu w sytuacji zadaniowej, można prawidłowo zestawić na kilka sposobów, to każdy z nich jest jednakowo prawdopodobny. Na przykład w ramach teorii modeli twierdzi się (Johnson-Laird i in., 1999), że kiedy w danej sytuacji można zbudować więcej niż jeden model umysłowy, to każdy z nich ma jednakowe szanse na to, że zostanie zbudowany. Określa się to mianem zasady jednakowego prawdopodobieństwa. W przypadku analizowanego już zadania: Adam jest wyższy od Bartka, Bartek jest niższy od Cezarego, Który z panów jest najwyższy?, żaden z trzech modeli mentalnych, które można utworzyć z przesłanek, nie jest bardziej prawdopodobny od pozostałych, i nie ma na to wpływu nasze osobiste doświadczenie związane z imieniem Adam czy Cezary. Wpływ taki można jednak zaobserwować, jeśli treść logicznego wniosku pozostaje w związku z wiedzą czy przekonaniami osób badanych. Nazwano to efektem siły prze konań (Evans, Barston, Pollard, 1983; Evans, Pollard, 1990). Wiarygodność konkluzji sylogizmu utożsamiana bywa z prawdopodobieństwem realnego zaist nienia opisanej przez nią sytuacji. Również w zdaniach warunkowych wykryto wpływ subiektywnej oceny prawdopodobieństwa implikacji na poprawność wnioskowania. Nie chodzi oczywiście o przypadki, gdy implikacja przybiera postać abstrakcyjną, typu »(P ->■ q) i nie q -> nie p”. Aby zaobserwować ten efekt, trzeba było użyć zadań z realną treścią. Okazuje się, że ocena prawdopodobieństwa implikacji zależy od tego, na ile prawdopodobne w opinii osób badanych są inne, niż wskazane w poprzedniku, przyczyny wystąpienia sytuacji opisanej w następniku. Im więcej osoba badana może sobie wyobrazić alternatywnych przyczyn (Cummins i in., 1991), albo im więcej takich przyczyn zostanie jej zasugerowanych (np. Pollard, Evans, 1983), tym mniej popełnia błędów zaprzeczenia poprzednika
10.9. Inne rodzaje rozum ow ania
479
i potwierdzenia następnika. Podobnie, kiedy osoba badana może wyobrazić sobie więcej kontrprzykładów, tym liczba tych błędów jest mniejsza. Im bardziej interpretacja implikacji jest ograniczona pod względem liczby potencjalnych przyczyn wystąpienia jej następnika oraz liczby kontrprzykładów, tym częściej interpretuje się ją błędnie jako równoważność (Hilton, Jaspars, Clark, 1990; Ray, Findlay, 1984). Zastosowanie poprawnych trybów wnioskowania również okazało się związane z oceną prawdopodobieństwa alternatywnych przyczyn lub kontrprzykładów. Jeśli przesłanki były związane z małą liczbą kontrprzy kładów, tryb modus ponens uznawany był częściej za poprawny. Nie miała na to wpływu liczba potencjalnych przyczyn następnika. Wyższej częstości użycia trybu modus tollens towarzyszyła natomiast większa liczba alternatywnych przyczyn i kontrprzykładów (Cummins i in., 1991).
10.9.2. Rozumowanie nieformalne Rozumowanie nieformalne polega na włączeniu do zadania dedukcyjnego ele mentów spoza zadania. „Oficjalne” przesłanki są milcząco uzupełniane o dodatko we informacje, pod warunkiem, że te ostatnie są zgodne z naszą wiedzą i przeko naniami. Zniekształceniu może zatem ulegać reprezentacja sytuacji problemowej. Dlatego jedna z hipotez wyjaśniających rozmaite błędy rozumowania odwołuje się do wykorzystywania nieformalnych procesów rozumowania w rozwiązywaniu za dań wymagających podejścia formalnego. Z drugiej strony, w rozumowaniu nie formalnym bierzemy pod uwagę znacznie szersze spektrum przesłanek, niż tylko te, które nam dostarczono „drogą oficjalną”, przez co nasze rozumowanie jest znacznie bogatsze w treść i lepiej dostosowane do realnych warunków życiowych. Shaw (1996) wyróżnia trzy cechy rozumowania nieformalnego. Po pierw sze, argumenty nieformalne są mniej ustrukturyzowane niż argumenty formalne. Chociaż można w nich wyróżnić przesłanki i wniosek, nie są one jasno roz dzielne, a niektóre przesłanki mogą pozostać ukryte. Oznacza to przede wszyst kim możliwość włączenia do procesu rozumowania przesłanek, które nie zostały sformułowane explicite. Po drugie, mimo że rozumowanie nieformalne zawiera elementy dedukcji i indukcji, częściej jednak polega na tych drugich (Green, 1994). I po trzecie, argumenty nieformalne używane są częściej wtedy, gdy jakiś wniosek wyzwala argumenty „za” i „przeciw”, niż wtedy, gdy można go jednoznacznie zweryfikować lub sfalsyfikować. Pomijając przypadki, w których wniosek dotyczy naszych poglądów i opinii, rozumowanie nieformalne włącza się, gdy implikacja jest niekonkluzywna, to znaczy nie można jej potwierdzić ani obalić na podstawie informacji, którymi dysponujemy. Domeną rozumowania nieformalnego są więc podstawowe dylematy moralne i egzystencjalne, a także niezbyt klarownie zdefiniowane sytuacje problemowe. Rozumowanie tego rodzaju może jednak zachodzić również w zupełnie klarownych - z punktu widzenia logiki formalnej - warunkach zadania. Prze analizujmy pewien przykład zadania warunkowego (za: Evans, 2002, s. 70): Przypuśćmy, iż prawdą jest, że: „jeżeli w samochodzie skończyło się paliwo, to silnik się wyłączy (zgaśnie)”. Przypuśćmy dalej, że silnik jest włączony (negacja następ nika) . Co z tego wynika?
480
Rozdział 10. M yślenie i rozum ow anie
Według tabeli prawdziwości implikacji uprawniony jest jedynie taki wnio sek, że w baku pozostało jeszcze paliwo (negacja poprzednika). Ale taki sam wniosek można wyprowadzić bezpośrednio z analizy sytuacji, bez konieczności kierowania się dużą przesłanką. Byłoby sprzeczne z całą naszą wiedzą o dzia łaniu maszyn, gdyby samochód nie miał paliwa, a silnik nadal pracował; fakt, że silnik nie zgasł, niezawodnie oznacza, że paliwo jeszcze się nie skończyło. Rozumowanie nieformalne korzysta więc z kombinacji informacji pochodzących z „oficjalnego” opisu zadania, a ponadto z kontekstu i z pamięci trwałej. W tym przypadku wniosek logiczny, wyciągnięty wyłącznie na podstawie „oficjalnych” przesłanek, jest tożsamy z wnioskiem „nieformalnym”, który nasuwa się na podstawie wiedzy ogólnej i znajomości kontekstu. Może się jednak zdarzyć, że wnioski te będą wzajemnie sprzeczne, a w każdym razie nietożsame. Wówczas większa wiarygodnością darzymy wniosek nieformalny. Analiza rozumowania nieformalnego wymaga zmian metodologicznych w sposobie przeprowadzania badań. Według Evansa (2002), są one niezbędne, bowiem tradycyjne paradygmaty, świetnie sprawdzające się w wąskim zakresie sztucznych zadań laboratoryjnych, nie nadają się do badania rozumowania nieformalnego. Z drugiej strony nie wydaje się, aby były to zmiany zasadnicze. Osobom badanym nadal prezentuje się sylogizmy lub zdania warunkowe, ale po nich, zamiast jasno sformułowanej konkluzji do zweryfikowania, następu je zwykle luźna instrukcja w stylu: „Co z tego wynika?”. Niekiedy prosi się również badanych o ocenę prawdopodobieństwa prawdziwości wniosku lub wyrażenie własnego sądu co do poprawności konkluzji, czyli o coś, co nie ma sensu w konfrontacji z tradycyjną logiką. Zadanie może np. polegać na wy korzystaniu nielicznych i bardzo niejednoznacznych danych w celu oceny zagrożenia, czy dziecko przyjmuje narkotyki. Zmiany w procedurach bada wczych dotyczą jednak przede wszystkim zastosowanej treści zadań. Badacze rozumowania nieformalnego korzystają więc z bogatego zaplecza badań nad wpływem kontekstu, doświadczenia i wiedzy osób badanych na wnioskowanie. Gdyby rozumowanie było procesem wyłącznie syntaktyczno-formalnym, nie powinno się obserwować skutków w zakresie poprawności jego wykonania, wywołanych treścią. Ponieważ tak nie jest, rozumowanie pozornie formalne często przeradza się w nieformalne. Wydaje się, że rozumowanie nieformalne jest szczególnie ważne wtedy, gdy treść zadania ma głębszy sens dla osób badanych. Większość spontanicznych aktów rozumowania, dokonujących się w realnych sytuacjach życiowych, spełnia kryteria rozumowania nieformalne go. Taki też charakter przyjmuje rozumowanie sylogistyczne jako jeden ze sposobów przebiegu procesów twórczych (Nęcka, 1987/1995; Nęcka i in., 2005). Tymczasem zdecydowana większość badań psychologicznych dotyczy rozumowania formalnego. Być może w tej rozbieżności należy upatrywać przyczyn tak dużego wskaźnika błędów, stwierdzanych zwykle w badaniach. To, co jest błędem z punktu widzenia rozumowania formalnego, przestaje nim być po włączeniu w proces myślenia dodatkowych, ukrytych założeń. Ale wówczas zadanie logiczne zmienia swój charakter, a rozumowanie przyjmuje postać nieformalną. W badaniach nad rozumowaniem nieformalnym znajdziemy też inny, bardzo interesujący wątek. Chodzi o to, jak ludzie rozumieją formuły zdaniowe, np. implikację, w zależności od kontekstu sytuacyjnego. Problem ten podjął w serii
10.11. Podsumowanie
481
badań Fillenbaum (1975a, 1975b), używając metod pozwalających na analizę poziomu zrozumienia zdań warunkowych poprzez ich parafrazowanie. Treść zadań była specyficznie dobrana. Okazało się, że kiedy implikacja zawierała obietnicę, np. „Jeżeli skosisz trawnik, to dam ci 5$”, parafrazowano ją z użyciem spójnika „i” - „Skosisz trawnik i zapłacę ci 5$”, a kiedy zawierała groźbę, np. „Jeżeli natychmiast nie zapłacisz, to pozwę cię do sądu” parafrazowano ją z użyciem spójnika „albo” - „Natychmiast mi zapłać albo pozwę cię do sądu”. Związki przyczynowo-skutkowe, np. „Jeżeli on pojedzie do Warszawy, to się rozchoruje”, parafrazowano w formie związku czasowego - „Kiedy on pojedzie do Warszawy, to się rozchoruje”. Natomiast treści uniwersalne, np. „Jeżeli ciężarówka jest żółta, to należy do firmy X” parafrazowano w postaci zdania prostego - „Żółta ciężarówka należy do firmy X”. Okazało się więc, że nie formalne rozumienie implikacji zdecydowanie odbiega od tego, które przyjmują logicy. A to z kolei prowadzi do błędów. Co ciekawe, liczba błędów była różna w zależności od treści implikacji. Na przykład odsetek błędów potwierdzenia następnika był najwyższy w przypadku obietnic i gróźb (80%), nieco niższy w odniesieniu do związków przyczynowo-skutkowych (70%), a najniższy w przy padku treści uniwersalnych (60%). Według Fillenbauma (zob. też: Newstead i in., 1997), wyniki te sugerują, że sam proces rozumowania może być tutaj poprawny, a niewłaściwa jest jedynie interpretacja zdania warunkowego. Newstead, Ellis, Evans i Dennis (1997) w interesujący sposób podjęli ten wątek. Autorzy wysunęli hipotezę, że rozumowanie warunkowe w życiu codziennym opiera się na sądach probabilistycznych (zob. rozdz. 12.1). Ocena prawdopodobieństwa, że informacje zawarte w przesłankach lub wniosku są prawdziwe, należy do najlepiej poznanych czynników wpływających na poprawność rozumowania.
10.11. Podsumowanie Problematyka myślenia należy do najstarszych obszarów badań psychologicz nych, co pośrednio świadczy o jej doniosłości. Być może znaczenie, jakie psy chologowie nadawali zawsze tym zjawiskom, wynika z przekonania, nieko niecznie wprost formułowanego, że zdolność do myślenia jest jednym z wyróżników człowieka jako gatunku i wyrazem jego inteligencji. Rzeczywiście, inteligencja ujawnia się w myśleniu i wręcz może być zdefiniowana jako zdol ność do radzenia sobie z trudnymi problemami dzięki procesom myślenia i rozumowania. Inteligencja byłaby w tym ujęciu cechą osobniczą o zróżnico wanym poziomie rozwoju, podczas gdy myślenie to szczególny rodzaj procesów poznawczych, dostępny wszystkim ludziom, choć nie wszystkim na tym samym poziomie skuteczności i złożoności. Dlatego badania nad inteligencją wymagają znajomości zasad i reguł, rządzących łączeniem reprezentacji poznawczych w dłuższe ciągi - bo tak właśnie zdefiniowaliśmy myślenie. Czy myślenie jest zdolnością wyłącznie ludzką, tego nie wiemy. Wiadomo, że niektóre gatunki zwierząt są zdolne do rozwiązywania problemów, pod warunkiem, że te są nie tylko stosunkowo proste jak na możliwości człowieka, ale też dostosowanie do typowych dla danego gatunku warunków środowiska. O istnieniu tej zdolności u zwierząt i ludzi orzekamy na podstawie obiek
482
Rozdział 10. Myślenie i rozumowanie
tywnych wskaźników, mianowicie tego, że w wyniku celowo podjętych działań problem uprzednio nierozwiązany przestaje być problemem (zob. rozdz. 11). Najczęściej do rozwiązania problemu dochodzi w wyniku uruchomienia pro cesów myślenia, aczkolwiek opisywane są przypadki rozwiązywania problemów przypuszczalnie bez ich udziału, np. w wyniku zachowania polegającego na podejmowaniu chaotycznych prób, zwykle kończących się porażką, ale niekiedy przypadkowo prowadzących do przezwyciężenia trudności. W każdym razie, nawet jeśli zwierzęta też niekiedy myślą, dopiero w przypadku człowieka można mówić o nadzwyczajnej złożoności i wydajności tych procesów. I tylko człowiek jest zdolny do myślenia abstrakcyjnego, która to umiejętność pojawia się zresztą dopiero po dłuższym okresie rozwoju poznawczego. Z tego punktu widzenia teza o szczególnej roli myślenia w procesie „uczłowieczenia ludzi” wydaje się całkiem rozsądna.
R ozdział
Rozwiązywanie problemów
Problem i rozwiązywanie problemu Typy problemów
484
Podział problemów ze względu na ich cechy i strukturę 487 Podział problemów ze względu na wy m agania poznawcze 491 Teorie rozwiązywania problemów
498
498
503
Metoda analizowania środków i celów Fazy rozwiązywania problemów
528
Przeszkody w rozwiązywaniu problemów
529
512
529
530
Fiksacja funkcjonalna
531
Czynniki w spom agające rozw iązyw anie problemów 533 533
Transfer przez analogię
507 507
527
Faza oceny poprawności rozwiązania
Transfer pozytywny
503
523
524
Faza monitorowania postępu
Nastawienie
Heurystyki rozwiązywania problemów Metoda poruszania się wstecz
Faza alokacji zasobów
Sztywność myślenia
Inne ujęcia teoretyczne procesu rozwią zywania problemów 502
Metoda redukcji różnicy
519
Faza zdobywania informacji
486
Teoria Newella i Simona
Faza doboru strategii
Inkubacja Wgląd
534
535
537
Faza identyfikacji problemu
513
Rozwiązywanie złożonych problemów
Faza definiowania problemu
514
Podsumowanie
546
541
Problem to rozbieżność między aktualnym stanem rzeczy a wyznaczonym * bądź narzuconym celem (stanem pożądanym), której nie można usunąć rutynowo. Rozwiązywanie problemów to aktywność ukierunkowana na zredukowanie rozbieżności pomiędzy stanem aktualnym a pożądanym, polegająca na realizacji zaplanowanej sekwencji operacji poznawczych. Wśród psychologów zwierząt krąży dowcip, że ptaki nie rozwinęły szczególnie wysokiej inteligencji, ponieważ ilekroć miały jakiś problem, po prostu odlaty wały. Jeśli umysł ptaka dysponuje jednym, uniwersalnym sposobem rozwiązy wania wszystkich problemów, umysł człowieka to „maszyna” wszechstronnego zastosowania, umożliwiająca generowanie licznych i różnorodnych rozwiązań dowolnego problemu. W systemie poznawczym człowieka działa wiele wyspecjalizowanych modułów, odpowiadających za realizację szczegółowych zadań poznawczych. Ale oprócz modułów, człowiek dysponuje ogólną zdol nością rozwiązywania problemów, niezależnie od ich rodzaju, struktury, modalności zmysłowej i innych cech. Ta ogólna zdolność powstała zapewne jako odpowiedź na wymagania środowiska, które stało się bardzo złożone i mało przewidywalne. Jeśli problem jest prosty lub znany, wystarczą wyspecjalizowane moduły, ale jeśli jest złożony lub nowy, potrzeba uniwersalnej „maszyny myślącej”, którą każdy z nas nosi na karku. Psychologia poznawcza szuka odpowiedzi na pytanie, jakie procesy za chodzą w umyśle człowieka w trakcie rozwiązywania przez niego rozmaitych problemów. Chodzi w szczególności o to, z jakich faz lub etapów składa się rozwiązywanie problemów, jakie przeszkody zakłócają przebieg tego procesu, a co go wspomaga. Psychologia przyjmuje więc postawę badawczą, czyli deskryptywną, ponieważ opisuje psychologiczne prawidłowości rozwiązywania problemów przez ludzi. Natomiast heurystyka, rozumiana tutaj jako dziedzina wiedzy (Góralski, 1980; Nęcka, 1994), przyjmuje postawę prespkryptywną: zaleca stosowanie pewnych zabiegów, zwiększających efektywność działania ludzi w dziedzinie rozwiązywania problemów.
11.1. Problem i rozwiązywanie problemu W potocznym rozumieniu problem to „poważne zagadnienie, zadanie wymaga jące rozwiązania, kwestia do rozstrzygnięcia” (Encyklopedia PWN). W ujęciu psychologicznym problem pojawia się wtedy, gdy człowiek „czegoś chce, a nie wie od razu, jaką sekwencję działań powinien wykonać, aby to osiągnąć” (Newell, Simon, 1972, s. 72). Dla psychologa problem to rodzaj relacji między obiektywną, zewnętrzną sytuacją bodźcową a jednostką lub grupą ludzi. Istotą tej relacji jest niemożność osiągnięcia celu, wynikająca z braku potrzebnych środków materialnych (np. przedmiotów, materiałów, pieniędzy), społecznych (np. pomocy i wsparcia ze strony innych osób) lub intelektualnych (np. wiedzy lub umiejętności). Znajdując się w sytuacji problemowej, człowiek może nie podejmować żadnych działań, albo może próbować osiągnąć cel mimo braku
11.1. Problem i rozwiązywanie problemu
485
dostępnych środków. Jeśli podejmuje takie próby, wykonuje czynność zwaną rozwiązywaniem problemu. Może ona ograniczyć się do procesów umysłowych, ale może też obejmować elementy jawnego zachowania. Z punktu widzenia psychologii kognitywnej rozwiązywanie problemu polega na wykonaniu sekwencji operacji poznawczych, które przynajmniej „w umyśle” lub „w wy obraźni” redukują rozbieżność między aktualnym stanem rzeczy a pożądanym celem (Anderson, 1980). Czy rozbieżność ta zostanie zredukowana również w świecie realnym, zależy od podjęcia i sfinalizowania konkretnych działań, co z kolei wymaga skutecznej motywacji i obiektywnych możliwości realizacji celu. Z poznawczego punktu widzenia problem można uznać za rozwiązany, jeśli człowiek już wie, jak usunąć rozbieżność między stanem wyjściowym a docelowym, choć na początku tego nie wiedział i właśnie dlatego znalazł się w sytuacji problemowej. Jeśli wiedza o sposobie usunięcia rozbieżności, wypracowana w trakcie rozwiązywania problemu, nie zostanie wprowadzona w życie, problem można uznać za rozwiązany intelektualnie, ale nie faktycznie. Każdy problem można scharakteryzować z pomocą czterech wymiarów (Newell, Simon, 1972; Medin, Ross, Markman, 2004). Po pierwsze, problem składa się ze stanu docelowego (goal State), na który nakierowane są procesy poszukiwania rozwiązania i w stosunku do którego istnieją kryteria oceny, czy został osiągnięty. Po drugie, istotną częścią problemu jest stan początkowy (initial state), czyli dane wyjściowe, a także okoliczności decydujące o tym, że cała sytuacja ma charakter problemowy. Nie wszystkie dane początkowe muszą być jawne; jeśli niektóre są ukryte, trzeba je wydedukować z tego, co wyrażono w postaci jawnej, lub wywnioskować z kontekstu. Po trzecie, w obrębie pro blemu można wyróżnić środki, czy też reguły, których wolno nam użyć, aby przekształcić stan początkowy (i wszystkie kolejne stany) w dążeniu do osiąg nięcia celu; środki te nazywa się również operatorami (operators). Po czwarte, w sldad problemu wchodzą przeszkody (obstacles), które napotykamy w procesie poszukiwania rozwiązań. Przeszkodami mogą być ograniczenia nakładane na operatory, z których powodu niektóre przekształcenia są niedozwolone (np. dzielenie przez 0 w problemach arytmetycznych). Rozważmy dla przykładu problem, wymagający rozkodowania cyfr ukry tych pod odpowiednimi literami alfabetu. W niżej podanej zagadce „kryptoarytmetycznej” (Newell, Simon, 1972) chodzi o zastąpienie liter cyframi i wykonanie dodawania, przy założeniu, że T = 0 (zero): DONALD + GERALD = ROBERT. Dostępne dane początkowe składają się zatem z wiedzy, że litery odpo wiadają cyfrom, a cyfry - literom. Wiemy ponadto, że litera T oznacza 0. Stan docelowy to na razie nieznane dwie sześciocyfrowe liczby oraz trzecia liczba, stanowiąca wynik ich dodawania. Zadanie tylko dlatego jest problemem, że wiemy, do czego chcemy dojść, ale na razie nie umiemy wykonać potrzebnych kroków. Operatory to elementarne reguły dodawania liczb w „słupkach”, ze szczególnym uwzględnieniem faktu, że jeśli wynik dodawania jest większy lub
486
Rozdział 11. Rozwiązywanie problemów
równy 10, trzeba dokonać przeniesienia jednej wartości do kolumny reprezen tującej wyższy rząd wielkości (np. 6 + 7 = 13, wpisujemy 3, a przenosimy 1). Ograniczenia nakładane na operatory to zakaz podstawiania dwóch lub więcej cyfr pod tę samą literę i zakaz podstawiania tej samej cyfry pod różne litery. Zauważmy, że zasadę jednoznaczności przyporządkowania liter cyfrom trzeba dopiero wywnioskować, ponieważ jest ona zawarta w opisie problemu implicite. Gdyby jej jednak nie przyjąć jako czegoś oczywistego, zadanie stałoby się trywialne. Z faktu, że T = 0, wnioskujemy, że D = 5, ponieważ nie ma innej pary identycznych liczb jednocyfrowych, których dodawanie dałoby wynik kończący się zerem (5 + 5 = 10, wpisujemy 0, a 1 przenosimy do kolumny obok). Jedynie dodawanie dwóch zer dałoby w wyniku 0, ale zerem jest już litera T, więc żadna inna nie wchodzi w grę. Wiedząc, że D = 5, wnioskujemy teraz, że G nie może być większe od 4, bo w przeciwnym wypadku wynik dodawania dwóch liczb sześciocyfrowych musiałby być liczbą siedmiocyfrową; a ponieważ wynik ROBERT jest liczbą sześciocyfrową, litera G musi oznaczać cyfrę 1, 2, 3 lub 4. W ten sposób, dokonując kolejnych dedukcji i eliminując możliwości pro wadzące do sprzeczności, osiągamy cel w postaci rozwiązania: 526485 + 197485 = 723970.
11.2. Typy problemów Badanie procesów poznawczych, biorących udział w rozwiązywaniu proble mów, wymaga wcześniej ustalenia typologii problemów. Różne kategorie pro blemów wymagają odmiennych sposobów rozwiązywania, a przez to angażują różne mechanizmy poznawcze. Postaraj się rozwiązać problemy z ramki 11.1. Odpowiedzi znajdziesz w tekście poniżej. Zastanów się, czym różnią się te problemy, albo w czym są do siebie podobne. W swojej analizie możesz odwołać się do następujących reguł kategoryzacji problemów: 1. Czy do rozwiązania problemu potrzebna jest uprzednia wiedza? 2. Jaki jest cel zadania? 3. Jak złożony jest ten problem? 4. Czy w opisie problemu są obecne wszystkie informacje potrzebne do jego rozwiązania? 5. Czy problem wymaga dużo pracy i wysiłku, czy też można go rozwiązać w jednym posunięciu, pod warunkiem, że wpadnie się na pomysł, jakie ma być to posunięcie? 6. Czy którekolwiek z opisanych problemów są do siebie podobne? (za: Robertson, 2001).
■
j
i i ; j j j j
j I
J
11.2. Typy problemów
487
Ramka 11.1
Rozwiąż te problemy
1. Który trójkąt jest ma większą powierzchnię - pierwszy o bokach równych 200, 300 i 400 cm, czy drugi o bokach równych 300, 400 i 700 cm? (Sloane, MacHale, 1997) 2. Masz 3 pudełka. W każdym z nich umieszczono po 2 mniejsze pudełka, a w nich jeszcze po 4 całkiem małe pudełka. Ile pudełek w sumie posiadasz? a) 13, b) 21, c) 24, d) 33 (Whimbey, Lochhead, 1999). 3. Rozwiąż równanie: X = 3 + (3 x 2) + (3 x 2 x 4) 4. Połącz 9 kropek za pomocą czterech kresek, nie odrywając ołówka od kartki ; (Scheerer, 1963). Czy można to zrobić używając tylko trzech kresek? A tylko jednej kreski?
•
• •
• •
• •
• •
5. Co zrobić, aby zwiększyć bezpieczeństwo na drogach? 6. Jak zbudować wieżowiec na podmokłym, bagnistym terenie? 7. Dlaczego w Pekinie herbata jest droższa od kawy, mimo iż Chiny nie produkują kawy, są natomiast największym na świecie producentem herbaty?
11.2.1. Podział problemów ze względu na ich cechy i strukturę Przede wszystkim, problemy można podzielić ze względu na charakter celu, do którego dążymy. Problemy 1-3 mają tylko jedno prawidłowe rozwiązanie, które trzeba po prostu odnaleźć. Mimo to, możliwe są różne strategie dochodzenia do rozwiązania. Aby rozwiązać pierwszy problem, można np. zastosować wzór na powierzchnię trójkąta, a następnie porównać obie uzyskane wartości, można narysować oba trójkąty w skali 1 : 100, można też wywnioskować, że po wierzchnia jednego z nich jest zerowa, a drugiego - większa od 0. Każda z tych strategii, jeśli zostanie poprawnie użyta, da zawsze ten sam końcowy rezultat, czyli jednoznaczną odpowiedź. Problem tego typu ma charakter konwergencyjny (zbieżny), wymaga też zbieżnego myślenia: niezależnie od przyjętej strategii, procesy poznawcze „zbiegają się” w jednym punkcie, stanowiącym rozwiązanie problemu. Natomiast zadanie 5 jest typowym przykładem problemu dopusz czającego wiele rozwiązań, z których każde może spełniać wymagane kryteria poprawności. Tego typu problem ma charakter dywergencyjny (rozbieżny), a procesy myślenia angażowane w jego rozwiązywanie jak gdyby „rozbiegają się” w wielu kierunkach (Guilford, 1959).
488
Rozdział 11. Rozwiązywanie problemów
Innym sposobem uporządkowania problemów jest dymensja proste-zlożone, niekiedy mylnie utożsamiana z dymensją latwe-trudne. Złożoność problemu można definiować na wiele sposobów, jednak najważniejszym kryterium wydaje się poziom komplikacji modelu umysłowego, który adekwatnie opisuje strukturę problemu i proces jego rozwiązywania (zob. Nęcka, Orzechowski, 2005). Natomiast dymensję latwe-trudne można rozumieć w kategoriach wysiłku poznawczego, niezbędnego dla wypracowania rozwiązania. Tak zwane prob lemy wymagające wglądu (insight problems) są często proste, ale trudne do rozwiązania (zob. rozdz. 11.9.4). Co więcej, istnieją różnice międzyosobnicze w postrzeganiu problemu jako łatwego albo trudnego, czy też prostego lub złożonego. Problem 6 i 7 będzie zapewne trudny dla osoby, która nie ma specjalistycznej wiedzy, a bardzo łatwy dla kogoś, kto nią dysponuje. Jednak w obu przypadkach będą to problemy raczej złożone, bowiem ich rozwiązanie wymaga uwzględnienia wielu okoliczności, które nie zostały zawarte w opisie problemu, a decydują o ostatecznym kształcie rozwiązania. Kwestia różnic indywidualnych w rozwiązywaniu problemów uwidacznia się szczególnie wy raźnie w badaniach nad ekspertami (zob. rozdz. 4). Dla początkującego szachisty zrozumienie aktualnej sytuacji na szachownicy i wymyślenie naj lepszego posunięcia może być bardzo złożonym procesem mentalnym, podczas gdy dla eksperta ta sama sytuacja jest prosta. Ekspert dysponuje bowiem wiedzą, która podpowiada mu, że w tej sytuacji jest tylko jedno najlepsze posunięcie. Badania nad ekspertami szachowymi pokazały np., że zapamiętują oni średnio czterokrotnie więcej pozycji figur na szachownicy niż nowicjusze (Chale, Si mon, 1973), przy czym ani pamięć krótkotrwała, ani pamięć wzrokowa nie jest u nich bardziej wydajna (Waters, Gobet, Leyden, 2002). O lepszym zapamię tywaniu sytuacji szachowych decyduje w tym przypadku umiejętność dostrze gania sensu w położeniu figur. W badaniach nad pilotami wykazano z kolei, że w przypadku ekspertów aktywność mózgowych ośrodków percepcyjno-motorycznych jest niższa niż u nowicjuszy. Wyższa natomiast okazała się aktywność czołowych i przedczołowych struktur korowych, biorących udział w planowaniu czynności i podejmowaniu decyzji (Peres i in., 2000). Wydaje się więc, że percepcja sytuacji na planszy szachowej czy w kokpicie samolotu jest zadaniem relatywnie prostym dla ekspertów, a bardzo złożonym dla nowicjuszy. Przewaga tych pierwszych nie polega na wyjątkowych zdolnościach poznawczych (np. bardzo pojemnej pamięci roboczej), ale na umiejętności szybkiej, mało wy siłkowej analizy sytuacji, a następnie na „inwestowaniu” zasobów poznawczych w planowanie dalszych posunięć oraz podejmowanie decyzji. Jeśli problem zawiera wszelkie informacje niezbędne do jego rozwiązania, czyli opis celu, kryteriów oceny jego osiągnięcia, danych początkowych oraz dopuszczalnych reguł ich przekształcania, jest on dobrze określony (zvelldefined; Reitman, 1965). Przykładem mogą być zadania 1-3, pod warunkiem, że dysponujemy elementarną wiedzą z zakresu matematyki.: Inaczej rzecz się przedstawia w przypadku problemu 4. Kiedy poznamy rozwiązanie, problem nie wyda nam się ani trudny, ani złożony (zob. ryc. 11.1), choć początkowo wielu osobom wydaje się nierozwiązywalny. Decyduje o tym kilka czynników. Po pierwsze, problem wymaga przezwyciężenia jednej z podstawowych przeszkód w rozwiązywaniu problemów, czyli przyjętych ukrytych, a zarazem fałszywych założeń. Odrzucenia wymaga przede wszystkim fałszywe założenie, że roz-
11.2. Typy problemów
489
Ryc. 11.1. Standardowe i niestandardowe rozwiązania problemu dziewięciu kropek.
wiązanie musi „zmieścić się” w planie kwadratu, zasugerowanym ułożeniem kropek. Kiedy odrzucimy to założenie, rozwiązanie przychodzi nam do głowy niemal od razu i od tej pory problem wydaje się prosty i łatwy. Zjawisko nagłej zmiany percepcji problemu, poprzedzone zazwyczaj tzw. przerwą inkubacyjną, Wolfgang Kohler (1925) nazwał wglądem. Problem dziewięciu kropek (Scheerer, 1963) jest przykładem zadania wymagającego wglądu i w dodatku pozwala na kilkakrotne jego doświadczenie. Drugim powodem, dla którego problem dziesięciu kropek może być trudny jest fakt, że wbrew pozorom nie jest on dobrze określony. Pojęcia kropki i kreski nie muszą być rozumiane ściśle matematycznie, co wykorzystują dwa rozwiązania przedstawione na ryc. 11.1. Gdyby w treści zadania zamiast słowa „kropki” użyć słów „punkt” i „odcinek”, rozwiązania te byłyby błędne, a problem miałby charakter konwergencyjny. Połączenie kropek za pomocą trzech linii wymaga „zobaczenia” kropki jako mającej pewien rozmiar, więc - matematycz nie rzecz ujmując - jako koło. Aby do rozwiązania zadania wystarczyła tylko jedna kreska, trzeba z kolei ująć ją jako obiekt, który może mieć dowolną grubość, np. taką, która pozwala na zawarcie w niej wszystkich dziewięciu kro pek. W instrukcji do tego zadania nie sprecyzowano dopuszczalnych i nie
490
Rozdział 11. Rozwiązywanie problemów
dopuszczalnych zasad dokonywania przekształceń i kryteriów oceny rozwiąza nia. Jest to więc problem źle określony (ill-defined). Szczególnie źle określone są problemy 5-7. W odniesieniu do poprawy bezpieczeństwa na drogach w zasadzie nie sprecyzowano niczego. Cel z pozoru wydaje się klarowny, ale bezpieczeństwo na drogach może być różnie rozumiane. Nie wiadomo też, jakie są kryteria oceny rozwiązań, ani środki, które można zaangażować w realizację celu. Simon (1973) uważa, iż aby rozwiązanie problemu źle zdefiniowanego w ogóle było możliwe, musi on zostać przekształcony w problem dobrze zdefiniowany. Można tego dokonać „kawałkując” złożony problem na mniejsze fragmenty, które następnie należy dookreślić bądź przeformułować, zmieniając je w dobrze zdefiniowane podproblemy. Przekształcanie problemu źle określo nego w dobrze określony wymaga uzupełnienia brakujących informacji. Voss i Post (1988) dowiedli, że w przypadku problemów źle określonych procesy poznawcze angażowane w ich rozwiązywanie często są identyczne z tymi, które zidentyfikowano w rozwiązywaniu problemów dobrze określonych. Inny podział dotyczy indywidualnego doświadczenia w rozwiązywaniu problemów, które decyduje o semantycznej przestrzeni problemu. Istnieją pro blemy, których struktura jest nam ogólnie znana; dysponujemy też pewnym zasobem doświadczeń w ich rozwiązywaniu, mimo że konkretny problem w swoim sformułowaniu może być dla nas nowy. Są to problemy bogate se mantycznie (semantically rich), co oznacza, że sieć semantyczna pojęć zwią zanych z problemem (liczba węzłów i połączeń między nimi) jest rozbudowana. Problemy 1-3 z ramki 11.1 wydają się tu dobrymi przykładami. Problemy ubogie semantycznie (semantically lean/poor) nie mogą być odniesione do naszych uprzednich doświadczeń, ponieważ ich struktura jest dla nas zupełnie nowa; nie dostrzegamy możliwości transferu uprzedniego doświadczenia do tej sytuacji. Dla większości ludzi, wyłączając osoby zajmujące się zawodowo albo hob bystycznie architekturą, problem 6 będzie miał taki właśnie charakter. Podział na problemy semantycznie bogate i ubogie dotyczy nie tyle charakteru pro blemów, ile różnic indywidualnych w zakresie wiedzy o problemie. Jednak wiele tzw. łamigłówek (puzzles) konstruuje się w ten sposób, aby możliwość transferu uprzedniego doświadczenia była maksymalnie utrudniona (Sloane, 1991, 1994; Sloane, MacHale, 1997; Harshman, MacHale, Sloane, 2003). Są to więc ze swej natury problemy semantycznie ubogie. Czy problemy 2 i 3 mają coś wspólnego poza identycznym rozwiązaniem? Pomimo że treść tych zadań jest różna, ich wewnętrzna struktura w istocie jest identyczna. Problemy te mają podobną strukturę głęboką chociaż ich struktura powierzchniowa jest różna. Ogólnie rzecz biorąc, podobieństwo struktury powierzchniowej dotyczy przede wszystkim danych początkowych, mimo że reguły ich przekształcania mogą się różnić. Są to więc problemy z pozoru podobne, jak zadanie budowy wieżowca i domku jednorodzinnego. Z kolei podobieństwo struktury głębokiej dotyczy raczej reguł przekształcenia i relacji zachodzących między elementami składowymi obu problemów. Nieco odmienny charakter ma podział na problemy otwarte i zamknięte (Kozielecki, 1968). Problemy otwarte charakteryzują się niewielką ilością danych początkowych, niejasnym celem i słabo zdefiniowanymi kryteriami jego osiągnięcia. Możliwe są w ich przypadku liczne i różnorodne rozwiązania. Problemy otwarte są zatem źle określone i dywergencyjne, jak problem 5 z ramki
11.2. Typy problem ów
491
11.1. Jeśli problem otwarty jest zarazem złożony, a ponadto dotyczy abstrak cyjnych zagadnień sztuki lub nauki, można go nazwać dylematem. Natomiast problemy zamknięte zawierają pełną dawkę informacji, z danymi dotyczącymi alternatywnych rozwiązań włącznie. Problemy zamknięte polegają więc na wyborze jednego z alternatywnych rozwiązań, co oznacza, że są to zadania dobrze określone i konwergencyjne.
11.2.2. Podział problemów ze względu na wymagania poznawcze Przede wszystkim problemy można podzielić ze względu na charakter wiedzy, która jest potrzebna do znalezienia rozwiązania. Najprawdopodobniej problemy 6 i 7 dla wielu Czytelników mogły okazać się trudne do rozwiązania, gdyż wymagają specyficznej albo wręcz eksperckiej wiedzy. Jeśli ktoś interesuje się gospodarką Chin albo architekturą i dysponuje odpowiednią wiedzą, problemy te będą dla niego trywialne, bądź w ogóle nie będą problemami. Tego typu problemy są specyficzne dla określonej dziedziny wiedzy (domain-specific); specyficzne dla dziedziny są także strategie ich rozwiązywania. Oczywiście nawet laik może mieć wiele pomysłów na uporanie się z nimi, ale zapewne nie ma wystarczającej wiedzy na temat kryteriów oceny adekwatności rozwiązań. Kwestia konstrukcji wieżowca na podmokłym terenie jest realnym problemem, przed którym swego czasu stanęli architekci. Jedno ze stosowanych rozwiązań polega na zbudowaniu fundamentów, które są „puste” w środku. Charaktery zują się wobec tego wypornością, która - odpowiednio obliczona - równoważy ciężar całej konstrukcji. Problem cen kawy i herbaty w Pekinie jest również bardzo realny. Oba produkty są stosunkowo drogie - kawa zapewne z powodu wysokich kosztów importu, a herbata - Chiny są krajem smakoszy herbaty - ze względu na jej bardzo wysoką jakość. Problemy 1-4 nie wymagają żadnej wiedzy, poza wyniesioną ze szkoły podstawowej. Ich rozwiązanie wymaga zastosowania prostych zasad logiki czy matematyki. Są to więc problemy ogólne, niezależne od jakiejkolwiek specy ficznej dziedziny wiedzy (domain-general). Nie znaczy to jeszcze, że są proste. W zadaniu 1. poprawna jest odpowiedź pierwsza - trójkąt o bokach 200, 300 i 400 cm ma większą powierzchnię, ponieważ powierzchnia drugiego wynosi 0! W zadaniu 2. najczęściej wybieraną odpowiedzią jest 24, podczas, gdy właściwa odpowiedź to 33 (Whimbey, Lochhead, 1999). Rozrysowanie całego zadania nie pozostawia wątpliwości, a dowód analityczny możliwy jest przy wykorzystaniu zadania 3., ponieważ problemy 2 i 3 są matematycznie ekwiwalentne. Do zadania 4. powrócimy w dalszej części rozdziału. Zadanie 5., dopuszczające wiele równoważnych rozwiązań, jak wiele realnych problemów wymaga wiedzy zarówno ogólnej, jak i specjalistycznej. Zapewne każdy z Czytelników wymyśli! wiele sposobów poprawy bezpieczeństwa na drogach, np. umówienie się, że wszyscy kierowcy będą przestrzegać przepisów. Nie trzeba do tego żadnej specjalistycznej wiedzy, a jako kryterium jego adekwatności można przywołać powszechnie znany przykład krajów Skandynawii. Jednak można też sobie wyobrazić, że istnieją rozwiązania, które wymagają specjalistycznej wiedzy, przykładowo z zakresu prawa (regulacje, które są dopuszczalne przez prawo),
492
Rozdział 11. Rozwiązywanie problem ów
czy psychologii (techniki perswazji, za pomocą których można próbować wpłynąć na wyobraźnię kierowców). Inna klasyfikacja problemów, pochodząca od Jamesa Greeno (1978), opiera się na zdolnościach czy operacjach umysłowych, angażowanych w procesie rozwiązywania problemów. Autor wyróżnia problemy polegające na porządko waniu materiału (arrangement), problemy wymagające indukcji (inducting) albo problemy transformacyjne (transformation). Problemy wymagające po rządkowania materiału polegają na organizacji obiektów według z góry określonych reguł. Obiekty mogą być organizowane na wiele różnych sposobów, ale prawidłowe jest zazwyczaj tylko jedno rozwiązanie. Przykładem tego typu problemów są anagramy (zob. ramka 11.2, zadanie 1), czyli zadania wymaga jące reorganizacji ciągu liter w taki sposób, aby utworzyły sensowne słowo. Zdaniem Greeno, tego typu problemy wymagają płynności w wytwarzaniu różnych możliwości oraz giętkości w generowaniu rozwiązań cząstkowych (np. sylab, od których zaczynają się sensowne słowa) i odrzucaniu tych, które nie są obiecujące. Wymagają ponadto zdolności sprawnego wyszukiwania pojęć w pamięci trwałej i znajomości zasad ułatwiających ich wyszukiwanie (np. znajomość frekwencji układów liter występujących w języku natu ralnym) . W problemach o strukturze indukcyjnej relacje między elementami problemu są niezmienne, a zadanie polega na ich odkryciu i zastosowaniu. W problemie 2. z ramki 11.2 należy odkryć, według jakich reguł ułożone zostały cyfry, a następnie zgodnie z tymi regułami uzupełnić ciąg o kolejny element. W przytoczonym przykładzie zastosowano jednocześnie dwie reguły: pierwsza dotyczy par cyfr 1 2, 3 4, 5 6, a druga cyfr 8, 6, ... . Ciąg należało więc uzupełnić cyfrą 4. Jest to klasa problemów zwana ekstrapolacją serii (series extrapolation) albo uzupełnianiem serii (series completion ) . Indukcja polega tu na ustaleniu ogólnej reguły na podstawie skończonej liczby podanych przykładów. Innego typu problemy o strukturze indukcyjnej to zadania wymagające transferu wiedzy poprzez zastosowanie analogii. Klasyczne zadania tego typu mają postać zaprezentowaną w zadaniu 3. z ramki 11.2. Problem polega na wskazaniu właściwego słowa, które - w pierwszym przykładzie - uzupełnia analogię szewc : b u t :: księgowa : ?. Skoro szewc wykonuje albo reperuje buty, to księgowa sporządza albo poprawia zeznania podatkowe (odpowiedź „d”). Chodzi zatem o odkrycie relacji, łączącej pierwszą parę pojęć i przeniesienie tej relacji na trzeci z podanych elementów i czwarty wybrany z klucza odpowiedzi. Transfer przez analogię (analogical transfer) polega na przeniesieniu przez analogię relacji odnalezionej w obrębie pierwszej pary pojęć na drugą parę. Drugi przykład w zadaniu 3. jest nieco trudniejszy, należy w nim uwzględnić wskazówkę, która jest absurdalna (drzewa to jarzyny). Ponieważ trzeci człon analogii, czyli jabłoń jest drzewem, należy - dla potrzeb tego zadania - rozumieć go w kategoriach jarzyny. Skoro rzeźba może być „owocem” pracy artysty, owocem jabłoni (rozumianej jako jarzyna) będzie bulwa. Oprócz pojęć języka naturalnego w zadaniach tego typu mogą zostać użyte symbole matematyczne, figury geometryczne itd. Analogia w takiej postaci ma względnie ścisły charakter i świetnie nadaje się zarówno do badań eksperymentalnych, jak i do testów zdolności umysłowych.
j 3 \ i j j
] i
j
j j
; i j \ \ j j j j j j | j j j ]
11.2. Typy problemów
493
Ramka 11.2
Rozwiąż te problemy 1. Anagram: odpowiednio przestawiając litery, utwórz sensowne słowo. CJIEPYZRAL 2. Uzupełnij poniższy ciąg kolejną wartością, będącą jego logiczną kontynuacją. 1 2 8 3 4 6 5 6... 3. Zadanie polega na wykryciu analogii, czyli podobieństwa, łączącego dwie pary słów. Słowa w pierwszej parze są w takiej samej relacji do siebie, jak trzecie do brakującego, czwartego słowa, które należy wybrać spośród dostarczonych opcji.
Szewc : b u t:: księgowa : ? a) trzewik, b) pantofel, c) podatki, d) zeznanie podatkowe. 4. Zadanie również polega na wykryciu analogii. Tym razem należy dodatkowo wziąć pod uwagę wskazówkę. Trzeba założyć, że jest ona prawdziwa, po czym wybrać słowo, które najlepiej uzupełnia analogię. Wskazówka: Drzewa to jarzyny
Artysta : rzeźba :: jabłoń : ? a) gałęzie, b) owoc, c) korzenie, d) bulwa.
Badacze zgodnie twierdzą, że transfer przez analogię wymaga dostrzeżenia relacji wyższego rzędu między problemami (Gentner, 1983; Sternberg, 1977a; Bassok, 2003). Proces ten polega na ujęciu strukturalnego podobieństwa proble mów w abstrakcyjnej postaci, tj. niezależnie od treści użytych zdań. W przy kładzie szewc : b u t :: księgowa : ?, należy abstrahować od treściowego związku szewca z butem, ujmując relacje wyższego rzędu, np. naprawianie czegoś przez kogoś. Jeśli odnieść tę relację do księgowości, to staje się jasne, że chodzi o jakieś dokumenty księgowe, np. zeznanie podatkowe. W tym konkretnym przypadku związek ujęty bardziej konkretnie - reperowanie czy latanie dziur, również może zostać użyty w dostrzeganiu związku analogii, tyle że pojęcia te należy rozumieć metaforycznie - reperowanie budżetu, łatanie dziur w budżecie. Metafora jest jednak pewną formą abstrakcji, więc tak czy inaczej nie da się dostrzec analogii bez ujęcia relacji wyższego rzędu między problemami. Odwzorowanie (mappmg), bo tak nazywa się ten proces, polega zatem na takim ujęciu relacji A : B, aby można ją było aplikować do obszaru semantycznego związanego z C. Gdyby jednak relację szewc : but ująć zbyt konkretnie - np. szewc chodzi w butach, a księgowa w trzewikach - można by dopatrywać się związku analogii, tam gdzie go nie ma. Oczywiście prawdą jest, że oboje zapewne chodzą w jakimś obuwiu, ale relacja księgowa : trzewik, nie ujmuje żadnego innego związku, jaki zachodzi między szewcem i butem. Zjawisko to Gentner (1983) nazywa transparencją, a u jej podłoża leży błąd lub brak procesu abstrahowania. O transferze przez analogię w realnych problemach mowa będzie przy okazji omawiania czynników facylitujących proces rozwiązywania problemów.
494
Rozdział 11. Rozwiązywanie problemów
Transfer w rozwiązywaniu problemów może być negatywny, co badał Luchins (1942; Luchins, Luchins, 1959), dając osobom badanym do rozwiąza nia tzw. problem dzbanów z wodą (zoater jars problem). Problem ten, a właściwie ich zestaw, polega na odmierzeniu określonej ilości wody, mając do dyspozycji trzy dzbany o zadanej pojemności i nieograniczony dostęp do wody. Osoby badane otrzymywały dziesięć tego typu zadań (zob. tab. 11.1). Ich zadaniem było wpisać formułę matematyczną, która opisywała sposób uzyskania żądanej ilości wody. Pomiar dotyczył poprawności i czasu rozwiązania każdego z dziesięciu problemów. Tab. 11.1. Problem dzbanów z wodą (za: Luchins, 1942). Problem
Dzban A
Dzban B
Dzban C
Żądana ilość wody
1 2 3 4 5 6 7 8 9 10
21 14 18 9 20 23 15 28 18 14
127 163 43 42 59 49 39 76 48 36
3 25 10 6 4 3 3 3 4 8
100 99 5 21 31 20 18 25 22 6
W pierwszym zadaniu należy uzyskać 100 jednostek wody, mając do dyspozycji dzbany o pojemności A = 21, B = 127 i C = 3. Rozwiązanie polega na napełnieniu dzbana B, a następnie wylaniu części jego zawartości, ko rzystając raz z dzbana A i dwukrotnie z dzbana C. Formuła matematyczna wygląda zatem następująco: B - A - 2C. Każdy z problemów 1-5 można rozwiązać posługując się tą formułą. Problemy 7 i 9 można rozwiązać na dwa sposoby: albo posługując się powyższą formułą, albo w znacznie prostszy sposób: według wzoru A + C. Problemy 6 i 10 również można rozwiązać na dwa sposoby: albo według formuły B - A - 2C, albo A - C. Z całego zestawu jedynie problem 8 nie da się rozwiązać według wzoru B - A - 2C, a jedynie formułą A C. Reasumując, formuła B - A - 2C działa niemal zawsze z wyjątkiem problemu 8, a problemy 6, 7, 9 i 10 można rozwiązać na dwa sposoby, przy czym drugie rozwiązanie jest zawsze znacznie prostsze niż pierwsze. W badaniach Luchinsa udział wzięły dwie grupy osób badanych. Grupa eksperymentalna rozwiązywała pełny zestaw dziesięciu zadań, a grupa kontrolna tylko pięć ostatnich zadań. Celem tej manipulacji było sprawdzenie, czy wystąpi transfer rozwiązań z zadań 1-5 na zadania 6-10, a szczególnie na zadanie 8. W grupie eksperymentalnej 64% osób badanych nie rozwiązało problemu 8, a 79% użyło w zadaniach 9-10 formuły B - A - 2C. Dla porównania w grupie kontrolnej zaledwie 5% osób nie rozwiązało zadania 8, a tylko 1% w zadaniach 9-10 użyło formuły B - A - 2C. Przemyślna konstrukcja kolejnych zadań wywołała w grupie eksperymentalnej tendencję do przenoszenia (transferu) rozwiązań z początkowych zadań na kolejne. Wskaźnikiem wystąpienia transferu było systematyczne skrócenie czasu rozwiązywania w obrębie pierwszych pięciu zadań. W tym przypadku
i
] I 5
j j
j j
: i
11.2. Typy problemów
495
miało to sens (transfer pozytywny), bowiem struktura zadań powierzchniowa i głęboka była identyczna. Zmiana struktury głębokiej, przy pozostawieniu powierzchniowych cech zadania 8, nie została wychwycona przez większość badanych z grupy eksperymentalnej, podczas gdy badani z grupy kontrolnej nie mieli z tym żadnych problemów. Zjawisko zademonstrowane przez Luchinsa nosi nazwę efektu nastawienia (set effect), albo efektu mechanizacji myślenia (mechanization of thought) i obrazuje negatywne skutki transferu uprzednich doświadczeń, jeśli głęboka struktura dwóch lub większej liczby problemów jest różna. Do mechanizmów tych efektów wrócimy w rozdz. 11.6.2. Trzecia grupa problemów wyróżniona przez Greeno (1978) to problemy transformacyjne. Problemy tego typu posiadają jasno zdefiniowany stan począt kowy, cel oraz reguły przekształcenia wraz z wszelkimi restrykcjami. Zadanie wymaga „tylko” odpowiedniego zastosowania tych reguł w celu transformacji stanu początkowego w docelowy. Trudność zadania nie polega - jak w przy padku poprzednich problemów - na dookreśleniu celu, albo zredefiniowaniu problemu, lecz na znalezieniu drogi przejścia z punktu wyjścia do punktu docelowego. Bodaj najpopularniejszym na świecie problemem tego typu jest gra w szachy, w której każda z charakterystycznych cech problemu transformacyj nego jest ściśle określona. Wiadomo jaki jest punkt wyjścia, jak również jaki cel należy osiągnąć i jakie środki pozostają w naszej dyspozycji. Mimo to, gra w szachy jest jedną z bardziej wyrafinowanych rozrywek intelektualnych.
stan początkowy
A
stan docelowy operatory
ruch krążków
restrykcje
ruch tylko jednego krążka nie wolno kłaść większego krążka na mniejszym krążki można kłaść wyłącznie na prętach
Ryc. 11.2. Problem Wieży z Hanoi (za: Glass, Holyoak, Santa, 1979),
W badaniach nad problemami transformacyjnymi, i w ogóle dziedzinie roz wiązywania problemów, karierę zrobił problem Wieży z Hanoi1 (Glass, Holyoak, Santa, 1979). Zadanie to polega na „przeniesieniu” wieży zbudowanej z trzech lub większej liczby krążków o różniej średnicy z jednego pręta na inny (zob. ryc. 11.2). Trzeba przy tym stosować się do trzech zasad: można przenieść 1 Nazwa wywodzi się z legendy, zgodnie z którą mnisi mieli przenieść po kawałku świątynię na nowe miejsce używając jak najmniej ruchów. Problem ten nosi też czasem nazwę „Wieży z Londynu” (Tower of London).
496
Rozdział 11. Rozwiązywanie problemów
tylko jeden krążek w jednym ruchu, można położyć tylko mniejszy krążek na większym, nie odwrotnie, i można kłaść krążki tylko na prętach, a nie w innym i miejscu, np. na stole. Omówienie rozwiązania problemu znajduje się w rozdz. i 11.3.1. Czy potrafisz w ten sposób przenieść wieżę zbudowaną z czterech, pięciu lub siedmiu krążków? Problemy transformacyjne były przedmiotem nie tylko badań psychologicz- j nych, ale również symulacji komputerowych i - ostatnio - badań z wykorzy staniem technik neuroobrazowania (zob. ramka 11.3). Tak duże zainteresowa- i nie zawdzięczają kilku czynnikom. Po pierwsze, są dobrze określone, a więc manipulując wybranymi elementami zadania można precyzyjnie wpływać na przebieg procesu ich rozwiązywania. To bardzo istotna właściwość z punktu | widzenia psychologii eksperymentalnej. Po drugie, łatwo śledzić sposób i rozwiązywania problemu, bowiem kolejne przekształcenia mają jednoznaczne : odzwierciedlenie w postaci nowego układu (np. układu krążków w problemie Wieży z Hanoi). Cześć problemów transformacyjnych daje się rozwiązać za pomocą algorytmu, czyli ścisłego i jednoznacznego przepisu działania, zawierającego sekwencje operacji, jakie należy wykonać, aby osiągnąć określony j Ramka 11.3
Neuroobrazowanie procesu rozwiązywania problemów
Najpopularniejsze obecnie techniki neuroobrazowania to pomiar potencjałów skorelowanych z pobudzeniem (event-related potentials, ERP), tomografia pozytonowa (PET) i funkcjonalny rezonans magnetyczny (fMRI, zob. rozdz. 1.2.3). Kłopot z użyciem tych metod w badaniach nad rozwiązywaniem problemów polega na tym, że chodzi o złożoną aktywność poznawczą, angażującą wiele elementarnych procesów poznawczych, uruchamianych w krótkich odstępach czasu. Technika ERP pozwala na uchwycenie szybkich zmian aktywności elektrycznej kory, ale nie daje zadawalającej informacji o jej lokalizacji i nie pozwala na uchwycenie aktywności struktur leżących w głębszych partiach mózgu. Pozostałe dwie techniki pozwalają na dość precyzyjne lokalizowanie aktywności metabolicznej również głębokich struktur mózgowych, ale ze względu na małą rozdzielczość czasową nie wychwytują szybkich zmian tej aktywności. Baker i współpracownicy (1996) przedstawili wyniki neuroobrazowania procesu rozwiązywania zmodyfikowanej wersji problemu Wieży z Hanoi z użyciem techniki PET. Osobom badanym prezentowano dwa układy trzech różnokolorowych kul, umieszczonych w kieszeniach o pojemności jednej, dwóch albo trzech kul (zob. ryc. 11.3). Dolny układ reprezentował stan początkowy, a górny - stan docelowy. Osoba badana powinna była zaplanować sposób transformacji stanu początkowego w końcowy i policzyć minimalną liczbę ruchów, której to wymaga. Wyboru dokonywano poprzez dotknięcie odpowiedniego pola na panelu wyświetlonym u dołu specjalnego, wrażliwego na dotyk ekranu. Wszystkie reguły Wieży z Hanoi zostały w tej wersji zadania zachowane. Manipulacja poziomem trudności (dwa poziomy) dotyczyła liczby ruchów, których wymagała poprawna transformacja. Zadania łatwe wymagały dwóch lub trzech ruchów, a trudne czterech lub pięciu ruchów. Zadanie to różni się znacznie od oryginału, ale tylko w warstwie powierzchniowej, ponieważ głęboka struktura problemu jest taka sama
j
-i
^
j
?
| | ;
11.2. Typy problem ów
497
jak w wersji klasycznej. Podobne są też wymagane w obu zadaniach procesy poznawcze. Wszelkie operacje transformacji musiały być zaplanowane I symbolicznie wykonane „w wyobraźni” , a wyniki kolejnych przekształceń - przechowane w pamięci roboczej. Zgodnie z oczekiwaniami w trakcie wykonywania zadania odnotowano aktywność korową korespondującą z angażowaniem wzrokowo-przestrzennej pamięci roboczej, procesów planowania oraz selekcji I ewaluacji reakcji.
Ryc. 11.3. Zmodyfikowany problem Wieży z Hanoi, użyty w badaniach Bakera i współpracowni ków (1996). Stan początkowy i końcowy pokazano na dolnym i górnym obrazku. Osoba badana ma za zadanie określenie minimalnej liczby ruchów, za pomocą których można przekształcić stan początkowy w końcowy. Reakcja polega na przyciśnięciu odpowiedniej liczby na panelu dotykowym monitora, wyświetlonym na dole ekranu.
cel. Z tego powodu problemy te dają się łatwiej modelować z użyciem kom puterów, niż te, dla których nie znamy algorytmu, albo takowy algorytm o prostu nie istnieje. Nie znamy obecnie algorytmu opisującego fizykę „czarnych dziur”, choć najprawdopodobniej algorytm taki istnieje. Nie istnieje natomiast algo rytm, który mówiłby nam, jak postępować, aby zdobyć uznanie ludzkości. W tym ostatnim przypadku, można co najwyżej zdać się na tzw. heurystykę, czyli nieformalną, spekulatywną, uproszczoną albo skrótową metodę rozwiązywania problemów lub podejmowania decyzji, ryzykowną i zawodną. Heurystyka pod powiada, jakimi metodami rozwiązywać problemy, których doskonale albo je
498
Rozdział 11. Rozwiązywanie problem ów
dyne rozwiązania nie są znane. Szczególną cechą algorytmu jest jego po wtarzalność - operacje wchodzące w jego skład dają zawsze taki sam efekt (Hunt, 1975). W przypadku heurystyki - przeciwnie - kolejne jej użycie w niezmienionej postaci prowadzi zazwyczaj do innego rezultatu. Heurystyka w szerszym znaczeniu jest metodologią twórczego działania (Góralski, 1980), czy wręcz osobną dziedziną wiedzy zajmującą się twórczym rozwiązywaniem problemów (Polya, 1957). W tym sensie heurystyka jest mniej lub bardziej spójnym systemem, zawierającym zestawy technik rozwiązywaniaproblemów, dopasowane do różnych typów zadań (zob. Nęcka, 1994; Proctor, 2002).
11.3. Teorie rozwiązywania problemów 11.3.1. Teoria N ew ella i Simona Teoria rozwiązywania problemów zaproponowana przez Newella i Simona (Newell, Shaw, Simon, 1958; Newell, Simon, 1971, 1972) zrywała z wcześniej szymi koncepcjami na dwa sposoby. Po pierwsze, Newell i Simon skonstruowali swoją teorię w nowym na ówczesne czasy paradygmacie informacyjnoprzetworzeniowym (Neisser, 1967). Teoria Newella i Simona, podobnie jak cały paradygmat, opierała się na założeniu, że umysł człowieka jest systemem przetwarzania informacji. Aby go poznać, należy skoncentrować się na pro cedurach (programach) tworzenia i przekształcania reprezentacji poznawczych (Nosal, 1990). Chodzi o to, w jaki sposób nasz umysł, operując na wewnętrz nych reprezentacjach otaczającego go świata, przetwarza informację w celu osiągnięcia określonych celów - poczynając od zachowania homeostazy orga nizmu, a kończąc na rozwiązywaniu wyrafinowanych problemów intelektual nych. Po drugie, teoria Newella i Simona zawiera komputerową symulację procesu rozwiązywania problemów (GPS, General Problem Solver). We współczesnej psychologii poznawczej symulacja stała się poważnym narzędziem wspomagającym konstruowanie modeli psychologicznych i generowanie hipo tez. Dla Newella i Simona symulacja była sposobem dotarcia do nieobserwowalnych procesów poznawczych, składających się na proces rozwiązywania problemów, a co za tym idzie miała prowadzić do ujęcia myślenia nie jako czegoś magicznego i niepoznawalnego, lecz ujmowanego w języku instrukcji dla komputera (Newell, Simon, 1971). Z tych powodów teoria Newella i Simona była przełomowa i wyznaczyła sposób myślenia o rozwiązywaniu problemów, sposób nadal inspirujący badaczy. Newell i Simon zdefiniowali problem jako układ stanów wiedzy (knowledge States), czyli konfigurację wewnętrznych reprezentacji, odnoszących się do sytuacji problemowej. Pełna reprezentacja problemu zawiera, jak powiedziano na wstępie, cztery charakterystyki (Medin, Ross, Markman, 2005). W koncepcji Newella i Simona są to: reprezentacja stanu początkowego (initial State), reprezentacja celu (goal State), dopuszczalne reguły przekształcenia stanów wiedzy (legal operators) i restrykcje (restrictions; constraints) wobec operato rów, czyli szczególne przypadki przekształceń, które są nielegalne. Przykłado wo, w problemie Wieży z Hanoi (zob. ryc. 11.2) podstawowym operatorem,
11.3. Teorie rozw iązyw ania problem ów
499
z pomocą którego dokonuje się przekształceń stanu początkowego w docelowy jest ruch krążka. Istnieją jednak trzy restrykcje, ograniczające rodzaj dopusz czalnych ruchów, np. że większy krążek nie może znaleźć się na mniejszym. W przypadku problemów źle określonych co najmniej jeden z tych elementów jest niedookreślony. W problemie budowy wieżowca na podmokłym terenie (zob. ramka 11.1), właściwie żaden z elementów reprezentacji problemu nie został jasno określony. Natomiast w przykładzie dziewięciu kropek brakuje tylko restrykcji wobec operatorów, co daje możliwość szukania nietrywialnych rozwiązań tego problemu. Przekształcenia stanów wiedzy dokonują się w tzw. przestrzeni problemu (problem space), która oprócz reprezentacji problemu zawiera wszystkie „pół produkty” przetwarzania informacji, np. stany wiedzy reprezentujące kolejne przekształcenia stanu początkowego i towarzyszące im niekiedy cele pośrednie2. Rozwiązanie problemu Wieży z Hanoi wymaga co najmniej siedmiu ruchów, czyli pomiędzy stanem początkowym a celem pojawia się sześć stanów pośred nich, a ostatni ruch prowadzi do celu, którego reprezentacja powstaje już w trakcie analizy problemu. Konieczne ruchy przedstawiono na ryc. 11.4. Celem pośrednim może być np. przeniesienie największego krążka na pręt C. Aby to zrobić trzeba osiągnąć cel bardziej szczegółowy, to jest przenieść najmniejszy i średni krążek na jeden pręt, byle nie byl to pręt C. Analizy celów i stanów stan 1
Ryc. 11.4. Rozwiązywanie problemu Wieży z Hanoi. Ruchy od stanu 1 do 2 i 3 (lewa strona) prowadzą do optymalnego rozwiązania w siedmiu ruchach. Ruchy od stanu 1 do 4 i 5 (prawa strona) nie są optymalne, bo wydłużająproces rozwiązywania problemu.
2 Nęcka (1994) w swojej heurystyce TRoP, dotyczącej problemów o charakterze twórczym, zawęził rozumienie przestrzeni problemu do reprezentacji sytuacji problemowej. Wszelkie przekształcenia polegające na doprecyzowaniu albo redefinicji problemu (stanu początkowego albo celu), odrzuceniu ukrytych założeń, włączeniu dodatkowej wiedzy itd., dokonywane są w przestrzeni problemu. Natomiast wszelkie działania, których celem jest znalezienie rozwiązania (rozwiązań) problemu dokonują się w tzw. przestrzeni rozwiązań.
500
Rozdział 11. Rozwiązywanie problemów
pośrednich Newell i Simon dokonali za pomocą analizy protokołów werbalnych, będących zapisem kroków, w jakich ludzie rozwiązują problemy. Okazało się to użyteczne tak do stworzenia modelu GPS, jak i do opisu ogólnych heurystyk rozwiązywania problemów (zob. rozdz. 11.4). Reprezentacja problemu w przestrzeni problemu ma charakter indywidual ny, bo zawiera tylko takie informacje, które zostały przez osobę rozwiązującą problem do niej włączone. Natomiast wszystkie potencjalne stany wiedzy, jakie - zgodnie z regułami przekształceń - mogą pojawić się w przestrzeni problemu, stanowią tzw. przestrzeń stanów (State space). W przypadku Wieży z Hanoi składającej się z trzech pięter takich potencjalnych stanów jest 27. W przypadku szachów ich liczbę szacuje się na 10 , dlatego jak dotychczas żaden komputer nie jest w stanie ich wszystkich wyliczyć. Tym bardziej fascynujące jest, że człowiek - posługując się tylko drobną częścią stanów wiedzy z przestrzeni stanów dostępnych w danej partii szachów - tak świetnie radzi sobie w tej grze. Pomimo iż teoretycznie obydwa problemy - Wieży z Hanoi i partii szachów można rozwiązać posługując się algorytmem, okazało się, że znacznie przydatniejsze i częściej stosowane są tutaj uproszczone heurystyki. Jedno z założeń przyjętych przez Newella i Simona (1972) dotyczyło sekwencyjnej natury procesu myślenia, leżącego u podłoża rozwiązywania problemów. Założenie to uzasadniono na podstawie danych, zgromadzonych metodą protokołów werbalnych (paradygmat 11.1). W szczególności powoły wano się na dwa argumenty. Po pierwsze - jak się wydawało - ludzie werba lizowali wszystkie stany pośrednie i operacje, które prowadziły do rozwiązania. Werbalizacja odpowiadała więc logicznej strukturze zadania, którą można przedstawić jako sekwencję kolejnych stanów wiedzy. Po drugie, werbalizacja pomagała osobom badanym w szybszym odnalezieniu rozwiązania, czyli wspomagała proces umysłowy, który w takim razie - jako sądzono - musi mieć charakter sekwencyjny. Gdyby miał inny charakter, werbalizacja w trakcie jego trwania byłaby czynnikiem przeszkadzającym, a nie pomagającym. Oba założenia okazały się fałszywe, jednak wnioski autorów dotyczące heurystyk stosowanych podczas rozwiązywania problemów, oparte nie na założeniach, a na wynikach badań empirycznych, wydają się trafne. Paradygmat 11.1
Metoda protokołów werbalnych Metoda protokołów werbalnych polega na rejestrowaniu i interpretowaniu wy powiedzi, generowanych przez osobę badaną podczas rozwiązywania problemu. Badanego prosi się, aby „głośno myślał” , relacjonując wszystko, co przychodzi mu do głowy. Badacza interesuje to, w jaki sposób uczestnik eksperymentu werbalizuje treść problemu, jakie stawia sobie pytania, jak komentuje uzyskane rezultaty, w jaki sposób reaguje na trudności itd. Wielu psychologów uważa, że jest to metoda odwołująca się do introspekcji, z wszelkimi znanymi jej wadami. Jednak właściwie zastosowana, metoda protokołów werbalnych nie musi oznaczać powrotu do introspekcjonizmu. Wypowiedzi osoby badanej poddaje się bowiem starannej interpretacji, traktując je jak zewnętrzne przejawy nieobserwowalnych procesów umysłowych, a nie jak rzetelne sprawozdanie z „naocznej” obserwacji tychże
11.3. Teorie rozwiązywania problemów
501
procesów. Żaden z badaczy posługujących się tą metodą, nie łudzi się, że człowiek jest w stanie na bieżąco obserwować działanie swojego umysłu, a ponadto for mułować ścisłe sprawozdania z tejże obserwacji. Wypowiedzi werbalne to raczej rodzaj zachowania, które może być jedną ze wskazówek dotyczących przebiegu procesu poznawczego. Mimo niedoskonałości i wyrywkowego charakteru takich wskazówek, badacz może na ich podstawie domyślać się wielu interesujących spraw, np. jak osoba badana przedstawia sobie istotę problemu, gdzie upatruje źródeł trudności, w jakim kierunku zmierza, kiedy i pod wpływem jakich oko liczności zmienia strategię rozwiązywania problemu, czy i kiedy doznaje wglądu. Ponieważ człowiek ma bardzo słaby dostęp do swoich procesów umysłowych, wyniki takiego postępowania badawczego często przynoszą rozczarowanie. Newell i Simon (1972) korzystali w swoich badaniach z metody protokołów werbalnych, przyznając, że ich analiza jest kłopotliwa. Badacze ci często mieli problem z uogól nieniem uzyskanych w ten sposób rezultatów. Jednak z braku lepszych sposobów „podglądania” funkcjonowania umysłu osoby rozwiązującej problem, metoda pro tokołów werbalnych stosowana jest również obecnie. Ericsson i Simon (1993) wyróżnili trzy rodzaje interesujących badacza wypo wiedzi. Typ I to werbalizacja bezpośrednia, polegająca na relacjonowaniu tego, co „mówi” głos wewnętrzny. Można ją więc zastosować do problemów, które mają naturę werbalną, na przykład do śledzenia wykonywania w pamięci złożonych operacji arytmetycznych. Zdaniem autorów, nie dochodzi wówczas do zakłócania werbalizacji z „normalnym” przebiegiem rozwiązywania problemu. Werbalizacja nie powinna ani spowolniać wykonywania zadania, ani nie wymaga wprowadzenia do procesu rozwiązywania problemu żadnej dodatkowej operacji poznawczej, związanej z głośnym myśleniem. Typ II to werbalizacja zawartości STM, polegająca na opisaniu jakiegoś as pektu aktualnego stanu procesu rozwiązywania problemu, np. przywołanego w da nym momencie wyobrażenia. Werbalizacja wymaga w tym przypadku przełożenia kodu obrazowego na werbalny. Jeśli problem jest złożony, werbalizacja nie tylko wpływa na czas jego wykonania, ale - jako, że jest procesem wysiłkowym (Kapłan, Simon, 1990) - pochłania również zasoby mentalne, odbierając je wykonywanemu zadaniu. Zdaniem Ericssona i Simona, nie wpływa to jednak na układ sekwencji stanów w przestrzeni problemu. Typ III to werbalizacja, polegająca na chwilowym przerwaniu procesu roz wiązywania problemu I wyjaśnieniu, dlaczego podjęto określone działanie (zasto sowano określony operator), czemu to miało służyć (jaki podcel ono realizuje) itd. Autorzy podkreślają, że niekiedy tego typu werbalizacja może mieć korzystny wpływ na proces rozwiązywania problemu (Berry, 1983; Ballstaedt, Mandle, 1984), jednak zwykle zaburza jego przebieg. Na przykład werbalizacja może ułatwiać proces rozwiązywania problemów, zwiększając objętość przypominanego tekstu, po jego wcześniejszym przeczytaniu na głos (Ballstaedt, Mandle, 1984). Uważa się jednak, że jest to efekt zapośredniczony. Dzięki werbalizacji aktywowana jest pamięć słuchowa, w konsekwencji uwalniając część pamięci roboczej. Ponieważ ta ostatnia zwykle jest przeciążona w trakcie rozwiązywania złożonych problemów, jej odciążenie w widoczny sposób poprawia wykonanie zadania (Robertson, 2001).
502
Rozdział 11. Rozwiązywanie problemów
1 1.3.2. Inne ujęcia teoretyczne procesu rozwiązywania problemów Wydaje się, że powstające później teorie rozwiązywania problemów, utrzymu jące się w nurcie poznawczym, nie wprowadzały jakościowych zmian do ujęcia zaproponowanego przez Newella i Simona (1972). Na przykład Greeno (1978, 1980) dokonał rozwinięcia teorii Newella i Simona, akcentując dwa istotne procesy obecne w rozwiązywaniu problemów: (1) tworzenie reprezentacji problemu (przestrzeni problemu) oraz (2) przeszukiwanie przestrzeni problemu (zob. ryc. 11.5). aktywowanie schematu
Ryc. 11.5. Diagram przedstawiający schemat procesu rozwiązywania problemów (za: Gick, 1986, s. 101).
Utworzenie reprezentacji problemu wymaga zebrania danych początko wych i określenia celu. Jest to warunkiem zrozumienia istoty problemu i zinte growania go z posiadaną wiedzą. Procesy angażowane w zrozumienie istoty problemu polegają na analizie relacji zachodzących między elementami pro blemu i rozpoznaniu wzorców w obrębie zidentyfikowanych relacji. W trakcie tworzenia reprezentacji problemu pewne jego właściwości mogą uaktywniać wiedzę zapisaną w pamięci długotrwałej. Mogą to sprawić zarówno dane początkowe, dostarczone z zewnątrz, jak i efekty późniejszej ich analizy. Jeśli w rezultacie tych analiz odnaleziona zostanie właściwa informacja, uaktywnia się schemat charakterystyczny dla danego typu problemu. Schemat rozumiany jest przez autora jako pewna porcja wiedzy odnosząca się do danego typu problemów. W jej slcład wchodzą cele typowe dla tej grupy problemów, restrykcje i użyteczne strategie poszukiwania rozwiązań (zob. Gick, Holyoak, 1983). Uaktywnienie schematu w trakcie budowania reprezentacji problemu wyzwala „przeskok” do fazy implementacji strategii poszukiwania rozwiązania. Realizacji strategii towarzyszy kontrola, której celem jest dopasowanie strategii do określonego typu zadania. Jeśli jednak nie nastąpi uaktywnienie któregoś ze znanych schematów, konieczne jest pełne przeprowadzenie fazy poszukiwania strategii. Wówczas mogą mieć zastosowanie heurystyki opisane przez Newella i Simona (zob. rozdz. 11.4). Gick (1986), dokonując przeglądu strategii rozwią zywania problemów, uzupełniła tę listę o strategie pozyskiwania informacji (Simon, 1978), planowania (Greeno, 1976), czy wykorzystania transferu przez analogię. Kompleksowego przeglądu strategii twórczego rozwiązywania prob lemów dokonał Nęcka (1995). Ponieważ stosowane strategie poszukiwania rozwiązań, jak też operacje składające się na ich realizację, wynikają zarówno z wiedzy jednostki, jak i ze
11.4. Heurystyki rozwiązywania problemów
503
struktury problemu, trudno o skonstruowanie uniwersalnego modelu. Problemy źle zdefiniowane będą raczej wymagały zaangażowania strategii ułatwiających pozyskanie informacji albo dokonania redefinicji problemu, co jest najzupełniej zbędne w problemach dobrze zdefiniowanych. Niektóre strategie są jednak na tyle elastyczne, że można je zastosować w obu przypadkach; np. transfer przez analogię może służyć zarówno doprecyzowaniu problemu, jak i poszuki waniu rozwiązań. Dlatego przyjmuje się, że procesy angażowane w rozwią zywanie problemów dobrze i źle określonych mogą być podobne (Greeno, 1980; Simon, 1973).
11.4. Heurystyki rozwiązywania problemów Wcześniej zdefiniowano heurystykę jako nieformalną, spekulatywną, upro szczoną albo skrótową metodę rozwiązywania problemów lub podejmowania decyzji, ryzykowną i zawodną. Systematyczny opis heurystyk rozwiązywania problemów należałoby zacząć od metody prób i błędów, polegającej na dokonywaniu przypadkowych zestawień elementów sytuacji problemowej, w oczekiwaniu, że któreś z nich okaże się rozwiązaniem problemu. Prze szukiwanie pola problemowego odbywa się wówczas losowo lub przypadkowo. Metoda ta nie wymaga myślenia, co wydaje się istotne, bo pokazuje, że jest możliwe rozwiązywanie problemów bez udziału myślenia (jak też myślenie, które nie polega na rozwiązywaniu problemów, Nęcka, 1992/1997). Jednak metodę prób i błędów trudno byłoby uznać za heurystykę, gdyż brak jej sys tematyczności i intelektualnego charakteru. Metoda heurystyczna to świadomie i konsekwentnie stosowany zestaw reguł postępowania służący osiągnięciu określonego celu. Zdecydowana większość przypadków użycia metody prób i błędów ani nie wymaga świadomości, ani nie jest przeprowadzana według jakichkolwiek reguł, gdyż reguła z definicji jest czymś nieprzypadkowym. Poniżej opisano najważniejsze heurystyki rozwiązywania problemów, opisywane w literaturze przedmiotu. Osobną kategorię stanowią heurystyki twórczego rozwiązywania problemów (zob. Proctor, 2002) i heurystyki podej mowania decyzji (np. Kahneman, Tversky, 1972; zob. rozdz. 12). Jak podkreś lają teoretycy, metody te są bardzo ogólne, bowiem mają zastosowanie do sze rokiej klasy problemów, a stosowanie niektórych z nich zaobserwowano rów nież u zwierząt. 11.4.1. Metoda redukcji różnicy Metoda redukcji różnicy (difference-reduction) zwana jest też, bardziej meta forycznie, heurystyką „wspinania się” (hill climbing). Rozwiązywanie problemu można porównać do wspinania się na szczyt wzgórza z zawiązanymi oczyma. Wejście na szczyt oznacza osiągnięcie celu. O tym, w którym kierunku pójść, decyduje nachylenie terenu. Intuicja podpowiada nam, że zawsze należy po dążać w kierunku, który wiąże się z ruchem w górę. Jeśli wszystkie dostępne drogi prowadzą w dół, oznacza to, że osiągnęliśmy szczyt. Posłużenie się tą
504
Rozdział 11. Rozwiązywanie problemów
heurystyką w rozwiązywaniu problemów oznacza, że każde kolejne przekształ cenie stanu wiedzy powinno być konfrontowane z celem i maksymalnie redukować różnicę między stanem aktualnym a docelowym. Przed wykonaniem kolejnego przekształcenia należy wygenerować potencjalne stany wiedzy, do puszczalne w danej sytuacji, a następnie zastosować przekształcenie (operator), które maksymalnie przybliży nas do celu. O prostocie tej heurystyki decyduje fakt, że nie planuje się pełnej ścieżki przeszukiwania pola problemowego, co niekiedy jest po prostu niewykonalne. Przykładowo, w grze w szachy każdy kolejnych ruch uzależniony jest od reakcji przeciwnika, a liczba potencjalnych posunięć rośnie wykładniczo wraz z postępem gry. Po wykonaniu trzeciego ruchu białych pionków liczba możliwych kolejnych posunięć wynosi 7,5 miliona, a po trzecim ruchu czarnych - już 225 milionów (Holding, 1985). W heurystyce redukcji różnicy, wyboru operatora dokonuje się tylko ze względu na jedno przekształcenie. Jeśli np. chcemy dotrzeć z Krakowa do Kołobrzegu, to dzięki różnym operatorom (środkom transportu) możemy bez pośrednio osiągnąć cel (podróż samochodem lub pociągiem sypialnym), a jeśli jest to niemożliwe, możemy zastosować metodę stopniowego zbliżania się do celu (np. podróż pociągiem z dwoma przesiadkami: w Warszawie i w Poznaniu, albo podróż samolotem z Krakowa do Koszalina i dalej autobusem). Tak czy inaczej, każdy kolejny etap podróży ma nas przybliżać, a nie oddalać od celu. Korzyścią tej heurystyki jest to, że im bliżej celu, tym większa dostępność dodatkowych operatorów, np. odwołując się do powyższego przykładu - innych środków transportu. Kiedy znajdziemy się już w Koszalinie, możemy skorzystać z kolei, autobusu, lokalnego transportu mikrobusowego, albo pojechać auto stopem. Jej wadą, wracając do metafory wspinaczki, jest to, że mając zawiązane oczy, możemy nie osiągnąć zamierzonego szczytu, ale po prostu „wejść” na przypadkowe „wzgórze” - najwyższe w okolicy, ale nie najwyższe w ogóle. Na przyldad dotarcie do Koszalina nie będzie najlepszym posunięciem, jeśli znajdziemy się tam wieczorem i na transport do Kołobrzegu trzeba będzie po czekać do rana. Czasem też dobrze jest w podróży na jakiś czas oddalić się od celu, aby wybrać połączenie łatwiejsze lub wygodniejsze, choć dłuższe. Heurystykę redukcji rozbieżności najczęściej badano z wykorzystaniem problemu Misjonarzy i Kanibali (Reed i in., 1974), albo którejś z jego odmian, np. problemu Hobbitów i Orków (Greeno, 1974; Thomas, 1974) czy problemu Miłośników i Podpalaczy Książek (Sternberg, 1996a). Głęboka struktura tych problemów jest identyczna, czyli są to tzw. problemy izomorficzne. Trzech Hobbitów i trzech Orków, chcąc przedostać się przez rzekę, znalazło łódź. Łódź jest mała - mieści nie więcej niż dwa stworzenia. Należy znaleźć najprostszy schemat przeprawienia przez rzekę całej szóstki. Nie może się jednak zdarzyć, aby w którymkolwiek momencie liczba Orków na którymkolwiek z brzegów była większa niż liczba Hobbitów, bowiem ci ostatni zostaliby zjedzeni. Należy przyjąć, że wszyscy pasażerowie wysiadają z łodzi po przepłynięciu rzeki (nie można nikogo zostawić w łodzi) i konieczna jest obecność w łódce co najmniej jednej osoby w każdej przeprawie. Problem ten można rozwiązać w minimum jedenastu ruchach (zob. ryc. 11.6). W zadaniu możliwe są dwa rodzaje ruchów - takie, które przybliżają nas do rozwiązania i takie, które pozwalają na powrót do poprzedniego stanu. Badania Greeno (1974) wykazały, że ponad 30% badanych ze stanu „H” powraca do
11.4. Heurystyki rozwiązywania problemów
505.
( 32:01 ) D
0
22:11 )
C
3 Hobbitów i 2 Orków znajduje się na lewym brzegu rzeki: 0 Hobbitów 1 Ork znajduje się na prawym brzegu 0 Hobbitów i 1 Ork znajduje się w lodzi
2 istoty wracają na lewą stronę rzeki
02:31 )
m
stan końcowy
Ryc. 11.6. Rozwiązanie i przestrzeń stanów problemu Hobbitów i Orków (za: Greeno, 1974; Thomas, 1974).
stanu „G”, a nie decyduje się na ruch prowadzący do stanu „I”. Jest to bowiem ruch pozornie błędny, w którym dwójka pasażerów wraca na „niewłaściwą” stronę rzeki. Ruch ten wydaje się oddalać nas od rozwiązania problemu, gdyż zwiększa rozbieżność między stanem początkowym a docelowym, zamiast ją redukować. Wracając do przykładu wspinania się z zamkniętymi oczyma, to tak, jak gdyby próbując wyjść na szczyt, zacząć schodzić w dół. Z kolei Thomas (1974) interesował się tym, co właściwie stanowi o trud ności - wydawałoby się łatwego - problemu Hobbitów i Orków. Podzielił swoich
506
Rozdział 11. Rozwiązywanie problemów
badanych na dwie grupy, z których grupa eksperymentalna wykonała wcześniej specyficzny trening. Polegał on na rozwiązywaniu drugiej części problemu, zaczynającej się od stanu oznaczonego na ryc. 11.6 literą „H”. Przypomnijmy, że jest to miejsce krytyczne, w którym poprawne przekształcenie wymaga pozor nego oddalenia się od celu, czyli zmniejszenia liczebności stworzeń przewiezio nych na właściwą stronę rzeki. Następnie obie grupy rozwiązywały cały problem. Okazało się, że trening wpłynął na zmniejszenie liczby przekształceń, wykonanych do osiągnięcia stanu „H” (średnio 10,8 w grupie eksperymentalnej i 13 w grupie kontrolnej), ale - co interesujące - nie wpłynął na przebieg dalszej części zadania. Liczba kroków potrzebnych do dokończenia zadania nie różniła się istotnie w obu grupach (odpowiednio 14,3 do 15,5 kroków), mimo że grupa eksperymentalna już rozwiązywała drugą jego część. O ile pierwszy rezultat jest zrozumiały - wpływ uprzedniego doświadczenia w rozwiązywaniu danego problemu - o tyle drugi wydaje się zaskakujący. Autor tłumaczy go silnym wpływem kontekstu na rozwiązywanie problemów transformacyjnych z użyciem prostych heurystyk, odmiennego w przypadku treningu i drugiej części zadania głównego. Analiza przeprowadzona dla kolejnych przekształceń wykazała trzy momenty krytyczne, związane z czasem latencji stanów „A”, „E” i „H”. W przypadku początkowego stanu „A” dłuższa latencja wydaje się wiązać z analizą problemu i planowaniem. W przypadku stanu „E”, dłuższa latencja może wynikać z konieczności analizy większej niż zazwyczaj liczby potencjal nych stanów wiedzy. W tym momencie możliwe są aż trzy przekształcenia, z których tylko jedno prowadzi do postępu w rozwiązywaniu problemu. Potwierdza to założenie Newella i Simona, że złożoność sytuacji problemowej ma ścisły związek z liczbą potencjalnych stanów wiedzy dostępnych w danym momencie. W końcu dłuższa latencja stanu „H” wydaje się dodatkowo świad czyć o tendencji do unikania rozwiązań, które oddalają nas od celu. Istnieją dwa problemy związane z praktycznym stosowaniem heurystyki redukcji różnicy. Podstawowy problem to podejmowanie decyzji o działaniu z uwzględnieniem tylko najbliższego przekształcenia. W codziennym życiu heurystyka ta sprowadza się do reguły: „Zróbmy coś, a co będzie potem, to się zobaczy”. Niekiedy działa świetnie, np. kiedy chcemy dostroić radio, ale nie nadaje się do rozwiązywania bardziej złożonych problemów. Drugi problem to sposób oceny różnicy między stanem aktualnym a celem. Jeśli w zadaniu „Wieża z H anoi” kryterium tym będzie wyłącznie odległość krążków od pręta docelowego, to - konsekwentnie stosując metodę redukcji różnicy - nigdy nie rozwiążemy tego problemu. Zauważmy - jak pokazano na ryc. 11.4. - że w ruchu trzecim i piątym najmniejszy krążek oddala się od celu. Podobnie jest w problemie Hobbitów i Orków, kiedy dwie postaci muszą wrócić na brzeg, z którego chcą się wydostać. W tych wszystkich przypadkach, aby osiągnąć cel, niezbędne jest chwilowe oddalenie się od niego. Zastosowanie innego kryterium oceny podobieństwa stanów, tak w tych, jak i w wielu innych złożonych zadaniach poznawczych, wymaga uwzględnienia większej sekwencji ruchów, albo ustanowienia celów cząstkowych, podporządkowanych celowi głównemu (np.: „uwolnić największy krążek i pręt docelowy”). Służą temu inne, bardziej złożone heurystyki.
11.4. Heurystyki rozwiązywania problemów
507
11.4.2. Metoda poruszania się w stecz Ta metoda rozwiązywania problemów polega na odwróceniu kierunku roz wiązywania problemu. Chodzi o to, aby punktem wyjścia uczynić sytuację do celową, a następnie poruszać się wstecz, aż do osiągnięcia stanu początkowego. Każde dokonywane przekształcenie wymaga selekcji operatora, który w naj większym stopniu zmniejsza różnicę między stanem aktualnym a - w tym przy padku - stanem początkowym. W metaforze wspinania się można powiedzieć, że chodzi o jak najszybsze zejście do podnóża góry, tak aby znaleźć się w punkcie początkowym. Tego typu metoda pozwala niekiedy na skuteczniejszą redukcję liczby potencjalnych operatorów, w porównaniu z metodą od początku do końca (Wickelgren, 1974). W twórczym rozwiązywaniu problemów stosuje się heurystykę zwaną: „Jak on na to wpadł?”. Na przykład w początkach rozwoju lotnictwa testowano mnóstwo zupełnie nietrafionych pomysłów. Liczba kierunków poszukiwania przejścia od stanu początkowego do celu była bardzo duża. Ale jeśli odwrócić zadanie i zapytać, jak zrodziła się idea dzisiejszego samolotu, liczba kierunków poszukiwań znacznie maleje. Zazwyczaj przychodzi nam do głowy analogia ptaka szybującego z rozpostartymi skrzydłami. Oczywiście w tym przykładzie zastosowanie metody poruszania się wstecz ma walor wyłącznie dydaktyczny, bowiem problem został już dawno rozwiązany. Jednak w przypadku problemów transformacyjnych, kiedy nieznany jest sposób przejścia od stanu początkowego do ściśle określonego celu, może ona być bardzo skuteczna. Problemem w stosowaniu tej metody jest to, że niektóre operatory nie są symetryczne, czyli działają tylko w jedną stronę. Zmieszanie kliku gatunków alkoholu w celu otrzymania interesującej kompozycji jest operacją nieprzechodnią i trudno byłoby zastosować metodę poruszania się wstecz, żeby dociec receptury sporządzonego drinka. Jednak metoda ta - stosowana często przez dzieci - pozwala dowiedzieć się, jak działa jakieś urządzenie, czy choćby mechaniczna zabawka. W przypadku niektórych problemów nie ma znaczenia kierunek poszukiwań. W problemach Wieży z Hanoi, albo Hobbitów i Orków, nie ma znaczenia, od której strony zaatakujemy problem. Stany początkowy i końcowy są takie same, tyle, że wieża jest na innym pręcie, a Hobbici i Orkowie na przeciwległej stronie rzeki.
11.4.3. Metoda analizy środków i celów W metodzie analizy środków i celów (means/ends analysis) również mamy do czynienia z redukcją rozbieżności, ale odbywa się ona nieco inaczej, niż w me todzie poruszania się wstecz. Powróćmy do przykładu podróży z Krakowa do Kołobrzegu. Załóżmy, że wybraliśmy opcję podróży samochodem. Niestety po drodze samochód się zepsuł. Co robimy, aby zrealizować cel podróży? Oczy wiście możemy porzucić nasz zepsuty samochód i dalej - posługując się metodą redukcji rozbieżności - podążać do celu, np. autostopem. Możemy zdecydować, że spróbujemy naprawić samochód, aby kontynuować podróż. Ustalamy więc cel cząstkowy. Być może osiągnięcie celu zasadniczego będzie wymagało reali zacji wielu, niekiedy hierarchicznie ustawionych celów cząstkowych. Przy
508
Rozdział 11. Rozwiązywanie problemów
kładowo, aby zreperować samochód trzeba dotrzeć do warsztatu naprawczego, aby dotrzeć do warsztatu, trzeba zorganizować holowanie samochodu itd. Rozwiązywanie problemów metodą analizy środków i celów polega na podziale problemu zasadniczego na mniejsze części (podproblemy). Każdy z nich ma swój odrębny cel, ostatecznie podporządkowany realizacji celu zasadniczego. Heurystyka ta wymaga więc bardziej dalekosiężnego planowania niż dwie poprzednie, a przede wszystkim analizy sytuacji problemowej, która doprowadzi do odkrycia problemów cząstkowych. Niekiedy problemy cząstkowe „rodzą się” same, jak w powyższym przykładzie, który - używając terminologii Newella i Simona - polega na przywróceniu możliwości stosowania wybranego przez nas operatora (samochodu), redukującego różnice między stanem aktu alnym a celem. Innym razem, aby skutecznie rozwiązać problem, trzeba umieć dostrzec w nim problemy cząstkowe. Widać to doskonale na przykładzie Hobbitów i Orków albo Wieży z Hanoi. W obu przypadkach rozbicie problemu w kluczowych jego momentach na podproblemy uzasadnia konieczność pozornego oddalenia się od celu głównego. Szczegółowe heurystyki twórczego rozwiązywania problemów często wymagają ustalenia celów cząstkowych, niekiedy bardzo odległych od celu zasadniczego (por. Nęcka, 1994b; Proctor, 2002). Stworzoną przez Newella i Simona (1972) symulację procesu rozwiązywa nia problemów General Problem Solver (GPS), oparto właśnie na metodzie analizy środków i celów. GPS realizuje tworzenie podcelów (subgoals) za pomocą dwóch strategii (zob. ryc. 11.7). Pierwsza polega na analizie problemu pod kątem wyróżnienia w nim największej różnicy między stanem aktualnym (początkowo jest to stan wyjściowy, a dalej kolejne stany wiedzy) a stanem docelowym. Na podstawie wyniku tej analizy tworzony jest podcel PCI, którego realizacja ma wyeliminować tę różnicę. Druga strategia polega na znalezieniu takiego operatora O l, który wyeliminuje odnalezioną różnicę. Może się zdarzyć, że nie da się go od razu zastosować z powodu znacznej różnicy między warun kami użycia operatora O l a aktualnym stanem wiedzy. Wówczas tworzony jest kolejny podcel PC2, którego realizacja pozwoli zastosować operator O l. Gdyby jednak nadal nie było to możliwe, tworzone są kolejne podcele itd. Przykładowo, jeśli producent kosmetyków ma cel w postaci zdobycia 10% rynku szamponów do włosów i ma już dobry produkt, powinien rozpocząć od rozbicia ogólnego celu na cele szczegółowe. Załóżmy dalej, że w wyniku tej analizy największą przeszkodą okazuje się brak kanałów dystrybucji. Naj ważniejszym podlecem PCI byłoby zbudowanie efektywnej sieci sprzedaży. Potencjalnych operatorów, prowadzących do jego realizacji, jest wiele, na przy kład wykorzystanie już istniejącej sieci sklepów albo aptek (Ol), system sprze daży wysyłkowej (02) itd. Zastosowanie operatora 01 mogłoby z powodzeniem realizować podcel PCI, przyjmijmy jednak, że z jakichś powodów nie decydu jemy się na to rozwiązanie. Operator 0 2 wydaje nam się bardziej interesujący, ale nie jesteśmy do niego przygotowani, czyli musimy ustanowić kolejne pod cele, których realizacja odblokuje zastosowanie operatora 02, np. stworzenie katalogu produktów, zdobycie list adresowych, utworzenie strony internetowej, biura obsługi klientów. Kotovsky, Hades i Simon (1985) wykryli, że w początkowej fazie roz wiązywania problemu Wieży z Hanoi ludzie stosują metodę redukcji różnicy, prostszą niż analiza środków i celów. Jednak kiedy napotykają na trudność
11.4. Heurystyki rozwiązywania problemów
509
Schemat 1. Cel: Przekształcenie stanu bieżącego w stan docelowy.
SUKCES
Schemat 2. Cel: Eliminacja rozbieżności. PORAŻKA
UŻYCIE OPERATORA
Ryc. 11.7. Strategie rozwiązywania problemów w GPS. Zastosowanie analizy środków i celów. Schemat 1 ilustruje podział problemu na podproblemy metodą poszukiwania rozbieżności. Następnie każda rozbieżność jest eliminowana. Schemat 2 ilustruje z klei poszukiwanie operatora, pozwalającego na redukcje rozbieżności (za: Anderson, 1993, s. 38).
w środkowej części zadania, przełączają się na tę drugą. Atwood i Polson (1976) opracowali model procesu rozwiązywania problemu Luchinsa z wykorzystaniem metody analizy środków i celów (zob. ramka 11.4). Jednym ze źródeł informacji o strukturze podcelów, skutecznych w przy padku określonego problemu, jest uprzednie doświadczenie. Egan i Greeno (1974) użyli w badaniach trudnej wersji zadania Wieża z Hanoi, z 5 i 6 krążkami. W grupie eksperymentalnej wykonanie tych trudnych wersji zadania poprzedzał trening, w którym osoby badane rozwiązywały jego prostsze wersje z 3 i 4 krążkami. Grupa eksperymentalna, przystępując do trudnych wersji testowych, dysponowała więc pewnym doświadczeniem. Grupa kontrolna nie przeszła podobnego treningu, otrzymując od razu wersje z 5 i 6 krążkami. Uprzednie doświadczenie okazało się czynnikiem ułatwiającym rozwiązanie.
510
Rozdział 11. Rozwiązywanie problemów
Ramka 11.4
Analiza środków i celów w problemie dzbanów z wodą Luchinsa
Atwood i Polson (1976) użyli pewnej odmiany problemu dzbanów z wodą (Luchins, Luchins, 1959). Osoba badana, dysponując trzema dzbanami o różnej pojemności miała za zadanie przelać dokładnie połowę objętości największego dzbana (A) do średniego (B), posługując się dodatkowo małym naczyniem (C). Przykładowo, jeśli pojemność dzbanów wynosiła 8, 5 i 3 (stan wyjściowy), a tylko pierwszy był pełny, to cel sprowadzał się do pozostawienia w dzbanach A i B po cztery jednostki wody (zob. tab. 11.2). Tab. 11.2. Problem dzbanów wody. Poszczególne stany opisane są dwoma liczbami, z których pierwsza oznacza pojemność dzbana, a druga ilość wody, która znajduje się w nim w danym momencie. Dzban A Stan początkowy Stany pośredniczące Cel
8-8 ( 8-3 8-3 J 8-6 1 8-6 8-1 V 8-1 8-4
I
Dzban B
Dzban C
5-0 5-5 5-2 5-2 5-0 5-5 5-4 5-4
3-0 3-0 3-3 3-0 3-2 3-2 3-3 3-0
Atwood i Polson dokonali porównania procesu rozwiązywania tej wersji problemu Luchinsa w dwóch sytuacjach: (1) 8-8, 5-0, 3-0 i (2) 24-24, 21-0,1-0. Są to problemy identyczne pod względem liczby przekształceń stanu wyjściowego, niezbędnych do osiągnięcia celu. Autorzy przewidywali, jednak że drugi z nich bę dzie łatwiejszy do rozwiązania, bowiem wystarczy wówczas zastosować metodę analizy środków i celów, podczas gdy pierwszy wymaga zmiany metody w trakcie rozwiązywania. Okazało się, że rzeczywiście średnia liczba przekształceń, doko nywanych przez osoby badane w przypadku problemu (1) była większa niż w odniesieniu do problemu (2). W kolejnych badaniach (Atwood, Mason, Polson, 1980) autorzy testowali hipotezę dotyczącą małego zakresu planowania przekształceń, wynikającego z przeciwdziałania przeciążeniu WM. Autorzy zastosowali manipulację polegającą na dostarczeniu osobom badanym wszystkich możliwych przekształceń dostęp nych dla każdego kolejnego stanu wiedzy. W ten sposób osoba badana nie musiała wykonywać tych przekształceń w pamięci. Nie musiała również obciążać pamięci roboczej koniecznością ich przechowywania w celu wyboru najlepszego ruchu. Dodatkowo w jednej z grup eksperymentalnych osoby badane otrzymywały zapis poprzednich stanów. Uzyskane wyniki wskazywały, że im więcej dostarczono informacji, tym mniej przekształceń było niezbędnych do odnalezienia rozwiązania. Nie wykryto jednak większych zmian w zakresie planowania. Wydaje się więc, że uwolnienie części pojemności i mocy przetworzeniowej WM nie zaowocowało doinwestowaniem procesów planowania. Usprawnieniu uległy jedynie procesy wykonawcze, leżące u podłoża rozwiązania problemów.
11.4. Heurystyki rozwiązywania problemów
511
Aby dowieść, że ułatwienie to polega na korzystaniu z nabytych w treningu strategii ustalania podcelów, autorzy poddali analizie profile błędów, zoperacjonalizowane jako odchylenie od optymalnej ścieżki rozwiązywania problemu. Osoby, które lepiej wykonywały złożone zadania testowe, znajdowały się bliżej optymalnej ścieżki. Jeśli założyć, że poprawne rozwiązanie problemu Wieży z Hanoi, wymaga koniecznie ustalenia podcelów, wynik Egana i Greeno ozna czałby lepsze dopasowanie się osób z grupy eksperymentalnej do struktury podcelów, wychwyconej w części treningowej. Uszczegółowienia metody analizy środków i celów dokonał Herbert Simon (1975). Ogólnie metody rozwiązywania problemów polegające na wyodrębnie niu celów cząstkowych autor określił wspólnym terminem heurystyki dekompo zycji celów. Simon opisał m.in. tzw. strategię powracającego celu (goal recursion strategy). Strategia ta może być skutecznie zastosowana, gdy można wyróżnić cel cząstkowy, który stopniowo przybliża nas do rozwiązania problemu, jeśli jest wielokrotnie realizowany. Wróćmy do przykładu producenta kosmetyków. Za łóżmy, że odkrywa on, iż w jednym z miast, gdzie zastosowano metodę sprze daży bezpośredniej w domu klientek, uzyskano bardzo dobre wyniki. Rezygnuje więc z sieci sprzedaży wysyłkowej. Stosuje natomiast prosty zabieg, polegający na powielaniu sprawdzonej metody sprzedaży bezpośredniej w innych więk szych miastach, czyli próbuje osiągnąć podcel polegający na budowie krajowej sieci sprzedaży bezpośredniej. W ten sposób stopniowo można osiągnąć za mierzony cel główny. W problemie Wieży z Hanoi, taki podcel polega - jeśli sformułować go niezależnie od liczby krążków tworzących piramidę - na przeniesieniu całej piramidy z wyjątkiem krążka na samym spodzie na inny pręt niż docelowy. Wtedy ten ostatni krążek można przenieść do punktu docelowego. Jeśli pierwszy krążek ze spodu trafi już na docelowy pręt C, procedurę należy powtórzyć dla reszty elementów piramidy, aż do przeniesienia wszystkich krążków. Jeśli jednak Wieża jest względnie duża, np. składa się z 14 krążków, jej przestawienie wymagać będzie wykonania 16 383 ruchów, co przy tempie pracy wynoszącym jeden ruch na 5 sekund, zajęłoby nam niemal 24 godziny. Strategia powracającego celu zastosowana w przypadku złożonych pro blemów może napotkać na trudności wynikające z ograniczeń pojemności STM (Simon, 1975). Jeśli problem wymaga rozbicia go na wiele podproblemów i wy odrębnienia wielu podcelów, to każdy z nich musi być symultanicznie prze chowywany w STM. Jeśli jest ich zbyt wiele, pamięć może zostać przeładowana, nawet jeśli każdy z podcelów jest relatywnie łatwy do zapamiętania. Anderson, Kushmerick i Lebiere (1993) wykryli, że czas latencji wykonania kolejnego posunięcia w problemie Wieży z Hanoi jest funkcją liczby podcelów, które muszą zostać sformułowane dla aktualnego stanu. Wydaje się to sugerować, że tworzenie podcelów wiąże się pewnymi kosztami poznawczymi, jest więc li mitowane pojemnością systemu. Inną opisaną przez Simona (1975) metodą rozwiązywania problemów jest złożona strategia percepcyjna (sophisticated perceptual strategy). Składa się ona z trzech kroków, które opiszemy na przykładzie Wieży z Hanoi: 1. Znajdź największy krążek nie będący w miejscu docelowym i obierz za cel umieszczenie go tam. Następnie wykonaj punkty 2 i 3. Jeśli wszystkie krążki znajdą się w miejscach docelowych, zakończ rozwiązywanie problemu.
512
Rozdział 11. Rozwiązywanie problem ów
2. Jeśli jakiś krążek blokuje krążek, który chcemy przenieść, bo znajduje się albo nad nim, albo na drążku docelowym, znajdź największy z nich i obierz za podcel umieszczenie go na innym drążku, różnym zarówno od wyjściowego, jak i docelowego. Poprzedni cel zachowaj jako cel nadrzędny względem aktualnie obranego. Jeśli to konieczne, wykonaj ten punkt wielokrotnie, aż do momentu uwolnienia krążka, o którym mowa w punkcie 1. 3. Jeśli już nic nie blokuje największego krążka, przenieś go na drążek doce lowy oraz: a) jeśli osiągnięty podcel posiada cel nadrzędny, powróć do niego i zrealizuj go, b) jeśli osiągnięty podcel nie posiada celów nadrzędnych, powróć do kroku 1.
Strategia ta nie jest ani najszybsza, ani najłatwiejsza, ale gwarantuje roz wiązanie problemu, gdyż w zasadzie ma postać algorytmu. Metoda analizy środków i celów jest bardzo ogólną heurystyką, za pomocą której ludzie i maszyny rozwiązują różnorakie problemy. Badania wykazały, że jest to metoda stosowana w rozwiązywaniu problemów akademickich (Larkin i in., 1980a), ale również problemów rzeczywistych (real-life problems; Klahr, 1978; Byrne, Bovair, 1997).
11.5. Fazy rozwiązywania problemów Rozwiązywanie problemów opisywane jest zazwyczaj jako proces fazowy. Oznacza to, że można w nim wyodrębnić pewną liczbę dyskretnych etapów, zachodzących jeden po drugim. Obecnie uważa się, że pełny cykl rozwiązywania problemów składa się z co najmniej pięciu faz (Brandsford, Stein, 1993), ale większość autorów wyróżnia ich więcej. Na przykład według Hayesa (1993) czy Sternberga (1986a) rozwiązywanie problemów obejmuje siedem następują cych etapów: • • • • • • •
identyfikacja problemu, definiowanie problemu i budowanie jego poznawczej reprezentacji, budowanie strategii rozwiązywania problemu, zdobywanie lub przywoływanie informacji na temat problemu, alokacja zasobów poznawczych, niezbędnych do rozwiązania problemu, m onitorowanie postępu w zmierzaniu do celu, ocena poprawności rozwiązania.
W praktyce heurystycznej (zob. Proctor, 2002) przyjął się nieco prostszy system Brandsforda i Steina (1993), znany jako model IDEAŁ. Ma on charakter raczej normatywny niż opisowy. Autorzy zalecają dzielić proces rozwiązywania problemów na pięć faz: • • • • •
identyfikację problemów i m ożliwości, definiowanie celów, eksplorację m ożliwych strategii działania, antycypację wyników i podjęcie działania, lustrację wyników i wyciąganie w niosków na przyszłość.
Bez względu na przyjęte rozwiązania teoretyczne, podkreśla się, że w przy padku wielu problemów przejście przez wszystkie fazy, a tym bardziej ścisłe zachowanie ich kolejności, nie jest konieczne. Wskazuje się również, że sprawne
11.5. Fazy rozwiązywania problemów
513
rozwiązywanie problemów wymaga elastyczności (zob. Pretz, Naples, Sternberg, 2003). Pełny cykl rozwiązywania problemów wydaje się niezbędny w przy padku problemów nowych dla jednostki. Może się jednak okazać, że np. dzięki zastosowaniu transferu przez analogię możliwe jest znalezienie rozwiązania „na skróty” nawet w przypadku problemów wcześniej zupełnie nieznanych. Innym razem trzeba wielokrotnie powtórzyć pewne fazy, a nawet całość procesu rozwiązywania problemu. Dlatego też przyjmuje się, że ma on charakter cyklicz ny (Sternberg, 1986a). Szczególnie w przypadku twórczego rozwiązywania problemów dochodzi do wielokrotnego powtórzenia pewnych faz, np. definio wania problemu lub generowania nowych rozwiązań, mimo dysponowania roz wiązaniami wymyślonymi wcześniej. Niektóre modele procesu rozwiązywania problemów wydają się ekwiwa lentne. Na przykład lustracja i wyciąganie wniosków, czyli piąta faza u Brandsforda i Steina, u Strenberga została rozdzielona na fazę monitorowania postępu i fazę oceny rozwiązania. Dlatego teraz dokładniej omówimy pełniejszy model złożony z siedmiu faz.
11.5.1. Faza identyfikacji problemu Brandsford i Stein (1993) wyjaśniają na czym polega identyfikacja problemu, podając przykład swojego znajomego, który podczas smażenia bekonu na śnia danie regularnie zabrudzał sobie ubranie, a nawet ulegał drobnym poparzeniom tłuszczem pryskającym z patelni. Nigdy się jednak nad tym nie zastanawiał. Pewnego dnia w katalogu dla kucharzy znalazł rozwiązanie tego niedostrzega nego przez siebie problemu. Była nim siatka z rączką umieszczana, jak przykrywka, nad patelnią. Zaskoczeniem dla tego człowieka było nie tyle samo rozwiązanie problemu, ale to, że ktoś go dostrzegł, ponieważ on sam nigdy nie pomyślał o tym jak o problemie do rozwiązania. Faza identyfikacji problemu polega na dostrzeżeniu, że problem w ogóle istnieje. Getzels (1982) wyróżnił trzy rodzaje problemów, ze względu na to, w jaki sposób zostały one zidentyfikowane. Po pierwsze, problem może nam zostać zadany, a więc właściwie nie wymaga identyfikacji. Może natomiast wy magać doprecyzowania, albo nawet redefinicji (faza 2). Po drugie, problem może zostać odkryty. Chodzi o takie problemy, które obiektywnie istnieją, ale nie były dotąd zauważone, bądź były niewłaściwie definiowane. Trzecia grupa prob lemów to, według Getzelsa, problemy wykreowane, czyli takie, które nie istniały, zanim ktoś ich nie stworzył. Problemy trzeciego rodzaju jak gdyby z definicji prowadzą do twórczych rozwiązań. Sztuka odkrywa wiele problemów, ale również je kreuje. W swoich badaniach Getzels i Csikszentmihalyi (1976) pokazali, że prace artystów, którzy poświęcali więcej czasu na poszukiwanie problemów, były oceniane jako bardziej twórcze w porównaniu z pracami artystów, którzy poświęcali tej fazie tworzenia mniej czasu. Co więcej, efekt ten był zauważalny w powtórnym badaniu po upływie siedmiu lat. Dowodzi to kluczowego znaczenia w procesach twórczych fazy identyfikacji problemów. Identyfikacja problemów może być dla człowieka celem samoistnym. Filo zofowie zwykli mawiać, że w ich dziedzinie kluczowe jest postawienie pytania, a nie udzielenie nań odpowiedzi. Sformułowanie problemu stanowi nieodzow
514
Rozdział 11. Rozwiązywanie problemów
ną, ale zwykle zaledwie pierwszą fazę procesu rozwiązywania problemów. Faza ta ma szczególnie znaczenie wtedy, gdy zaczynamy działać w niedoprecyzowanej sytuacji początkowej. 11.5.2. Faza definiowania problemu Definiowanie problemu jest fazą polegającą na takim jego sformułowaniu, w którym ujęte będą przede wszystkim cele, czyli stan końcowy. Precyzyjne zdefiniowanie problemu dziewięciu kropek (zob. ramka 11.1) nie ułatwiłoby zapewne jego rozwiązania, ale mogłoby skutecznie zablokować wiele „twór czych” poszukiwań. Maier (1931) w problemie dwóch sznurków (zob. para dygmat 11.2) celowo zdefiniował go ogólnie: „Jak związać dwa sznurki wiszące u sufitu?”. Gdyby sformułował ten problem inaczej, np.: „Jak związać dwa sznurki, trzymając jeden w ręce, a drugi przyciągając do siebie?”, rozwiązanie nie byłoby zapewne tak kłopotliwe. Dlatego właśnie główna trudność w pro blemie Maiera polega na zdefiniowaniu, a właściwie zredefiniowaniu problemu, czyli ujęciu go na nowo. Z tego powodu najwięcej badań nad definiowaniem i redefiniowaniem problemów prowadzono z wykorzystaniem specyficznej grupy zadań wymagających wglądu. W dziedzinie twórczego rozwiązywania problemów opracowano szereg technik, które dotyczą fazy identyfikacji, definio wania i redefiniowania problemu (zob. Nęcka, 1994; Proctor, 2002). Reprezentacja problemu dotyczy sposobu, w jaki informacja o problemie zostaje mentalnie przedstawiona i zorganizowana. Powinna zawierać wszystkie cztery elementy definiujące przestrzeń problemu: reprezentację stanu początko wego, reprezentację celu, reprezentację dopuszczalnych reguł przekształcenia stanów wiedzy i koniecznie restrykcji. Informacje te są z sobą ściśle powiązane, więc reprezentacja problemu zawiera również relacje pomiędzy tymi czterema elementami. Jak wspomniano, jeśli brakuje któregokolwiek z nich, problem jest tym samym źle określony. Paradygm at 11.2
Problem dwóch sznurków Maiera (1931)
Reorganizacja danych wejściowych jest warunkiem redefinicji problemu. Redefini cja to inne sformułowanie problemu, wynikające ze zmiany relacji między jego elementami. Problem wymyślony przez N. R. F. Maiera (1931) polega na związaniu razem dwóch sznurków wiszących u sufitu. Ich wzajemna odległość uniemożliwia jednoczesne uchwycenie obu sznurków. W pomieszczeniu znajdują się zwykle różne przedmioty, np. krzesło, papier, pinezki i obcążki (zob. ryc. 11.8). Skuteczne rozwiązanie problemu wymaga wykorzystania jednego z tych przedmiotów, na pozór przypadkowo pozostawionych w pomieszczeniu. Należy przywiązać obcążki do jednego ze sznurków i rozhuśtać go. Następnie, trzymając w dłoni drugi sznurek, stanąć w połowie odległości między nimi i pochwycić rozhuśtany sznurek, kiedy będzie odpowiednio wychylony. W badaniach Maiera zaledwie 39% osób było w stanie rozwiązać ten problem w ciągu 10 minut. Można wyróżnić kijka przyczyn tak słabych rezultatów. Maier skoncentrował się na zjawisku tzw. fikeacji funkcjonalnej, czyli nieumiejętności odejścia od kon
11.5. Fazy rozw iązyw ania problem ów
515
wencjonalnych funkcji znanych obiektów, aby użyć ich nietypowo (zob. rozdz. 11.6.3). Inna przeszkoda w rozwiązaniu problemu dwóch sznurków jest jeszcze bardziej podstawowa i polega na wyłączeniu innych przedmiotów poza sznurkami z pola problemowego. Przedmioty te nie są w ogóle brane pod uwagę w procesie rozwiązywania problemu. Na koniec, zadanie wymaga redefinicji problemu. Nie chodzi w nim przecież o to, jak trzymając jeden sznurek zbliżyć się do drugiego, aby go dosięgnąć, ale o to, jak sprawić, aby to on zbliżył się do nas. Problem dwóch sznurków wymaga więc nie tylko redefinicji funkcji przedmiotów w nim wykorzys tanych (obcążki), ale również redefinicji całego problemu.
Ryc. 11.8. Problem dwóch sznurków (za: Maier, 1931).
Sposób reprezentacji problemu może mieć kluczowe znaczenie dla su biektywnej percepcji jego złożoności i, w konsekwencji, dla całego procesu poszukiwania rozwiązania. Problem uszkodzonej szachownicy, w sformuło waniu przedstawionym w ramce 11.5, stanowi dla większości ludzi poważne wyzwanie, ponieważ wymaga wykrycia, że rozwiązanie nie istnieje. Aby dojść do tego wniosku, należy uświadomić sobie, że kostka domino musi przykryć dwa pola o różnym kolorze. A skoro liczba pól białych i czarnych jest różna, zadanie jest niewykonalne. Wystarczy jednak zmienić sposób reprezentowania
516
Rozdział 11. Rozwiązywanie problemów
Ramka 11.5.
Problemy Wickelgrena
Problem „uszkodzonej” szachownicy (Wickelgren, 1974). Zadanie polega na pokryciu kostkami domina szachownicy pozbawionej dwóch narożnych pól (zob. ryc. 11.9a), czyli składającej się z 62 pól. Zakładamy, że jedna kostka domina pokrywa dwa pola szachownicy.
• • • •
Problem szachownicy (Wickelgren, 1974) W tym problemie zadanie polega na połączeniu wszystkich pól planszy warcabów za pomocą linii (zob. ryc. 11.9b). Rysowanie rozpoczyna się w punkcie START. Możliwe są wyłącznie ruchy w kierunkach dół-góra/lewo-prawo. Operacje nie dozwolone: oderwanie ołówka od planszy, przejście przez jedno pole więcej niż jeden raz i rysowanie linii ukośnych.
Ryc. 11.9b. Problem szachownicy.
problemu, aby zadanie okazało się znacznie prostsze. Wyobraźmy sobie, że na zabawie karnawałowej bawią się 32 kobiety i 32 mężczyzn, tworząc 32 pary taneczne. W trakcie tańców 2 kobiety wyszły. Czy pozostałych uczestników zabawy można połączyć w 31 par? (za: Gick, McGarry, 1992). Przyjmując, że
11.5. Fazy rozwiązywania problemów
517
mamy do czynienia z tradycyjnym pojmowaniem pary jako kobiety i mężczyzny, oczywiście nie jest to możliwe. Rozwiązanie, inaczej niż w przypadku oryginal nego sformułowania problemu, nie nastręcza teraz jakichkolwiek problemów. Dowodzi to, że sposób reprezentowania problemu jest kluczowy dla przebiegu dalszych faz jego rozwiązywania. Podobne rezultaty uzyskano w badaniach nad rozumowaniem i podejmowaniem decyzji. W przypadku drugiego problemu z ramki 11.5, konieczna jest zmiana reprezentacji z konkretnej na abstrakcyjną. Tego problemu również nie da się rozwiązać, ale wniosek taki można wyciągnąć jedynie na drodze rozumowania, prowadzącego do pewnych uogólnień. Zauważmy, że plansza zawiera niepa rzystą liczbę pól: 13 czarnych, a 12 białych. Wynika z tego, że skoro całkowita liczba pól jest nieparzysta, startujemy z pola białego, a każdy kolejnych ruch wymaga przejścia na pole o innym kolorze, to dochodzi do sprzeczności. Nie możemy, zaczynając od białego pola, przechodząc na zmianę przez pola białe i czarne, zakończyć również na białym, skoro jest ich mniej niż czarnych. Z tego powodu zadanie jest nierozwiązywalne. Przekształcenie reprezentacji problemu w formę bardziej abstrakcyjną jest bardziej wymagające dla systemu pozna wczego, ale pozwala wyciągnąć niezawodny wniosek co do możliwości jego rozwiązania. Reprezentacja problemu, niezależnie od jej zawartości treściowej, może mieć różną formę. Ponieważ zdecydowana większość problemów reprezento wana jest werbalnie albo wizualnie, badania dotyczą głównie tych dwu kodów. Kotovsky i współpracownicy (1985) użyli w swoich badaniach problemu akrobatów, który jest izomorficzny względem Wieży z Hanoi. Krążki różnej wielkości zastąpiono postaciami akrobatów, którzy różnią się wagą (700, 200 i 40 funtów). Wszystkie zasady zostały zachowane analogicznie do Wieży z Hanoi. Autorzy zastosowali ponadto odwróconą wersję problemu akrobatów. Odwróceniu uległa podstawowa zasada, dotycząca tworzenia piramidy akroba tów. W odwróconej wersji tylko więksży akrobata może stać na mniejszym. Okazało się, że rozwiązanie odwróconego problem akrobatów zajmowało oso bom badanym więcej czasu, niż zmaganie się z klasyczną wersją tego problemu. Uzyskany wynik autorzy tłumaczą przyjętą reprezentacją problemu, która jest niezgodna z codziennym doświadczeniem osób badanych. Operacje wykony wane z użyciem takiej reprezentacji wymagają dodatkowego wysiłku pozna wczego, który prawdopodobnie wynika z konieczności hamowania nawykowych operacji przekształcenia (mniejszy element „musi” stać na większym) lub konieczności odwrócenia narzuconej reprezentacji problemu przed dokonaniem właściwych przekształceń. Mumford, Reiter-Palmon i Redmond (1994) zaproponowali model, ujmu jący procesy poznawcze angażowane we wczesnych stadiach rozwiązywania problemów. Pod pojęciem wczesnych stadiów rozumie się identyfikację, definiowanie i rozpoznawanie problemu. Autorzy wyodrębnili pięć takich procesów: • uświadomienie sobie wskazówek, prawidłowości i anomalii w otoczeniu (percepcja i uwaga); • wydobycie z pamięci trwałej reprezentacji problemów analogicznych (uaktyw nienie reprezentacji);
518
Rozdział 11. Rozwiązywanie problem ów
• ocena reprezentacji problemów analogicznych (selekcja strategii ewaluacji); • zdefiniowanie celów i ograniczeń w obrębie problemu (strategia selekcji elementów); • zbudowanie reprezentacji umysłowej problemu na podstawie wyselekcjonowa nych elementów (reorganizacja elementów). To interesujące rozbicie złożonych skądinąd procesów na ich elementarne składowe nie ma jednak mocnych podstaw empirycznych. Brophy (1998), analizując raporty werbalne dotyczące różnych aspektów procesu rozwiązywania problemów, zebrane od artystów i uczonych, opisał procesy towarzyszące wczesnym fazom rozwiązywania problemów. Autor uznał, że procesy te mają charakter nieświadomego, intuicyjnego myślenia. Polega ono na tworzeniu kombinacji rozpoznanych wzorców percepcyjnych, wytworzonych abstrakcyjnych związków analogii i użytecznych sposobów organizacji posiadanego doświadczenia z określonej domeny wiedzy. Tego typu konkluzje nie są odosobnione. Na przykład Goldstone i Barsalou (1998) dowodzą daleko idącego związku między procesami percepcyjnymi i abstrakcyj nymi, które zwykle traktuje się jako odrębne. Związek ten, zadaniem autorów, świadczy o tym, że wiele mechanizmów kojarzonych z myśleniem abstrakcyj nym obecnych jest w percepcji, a procesy percepcji dostarczają użytecznych mechanizmów, które mogą zostać włączone w myślenie abstrakcyjne. Pretz, Naples i Sternberg (2003) postawili hipotezę, że rozpoznanie problemu w określonej dziedzinie zależy od wrażliwości na luki w istniejącej wiedzy, które nie mogą być wypełnione poprzez zwykłą interpolację lub wnios kowanie. Hipoteza ta nie była testowana empirycznie, ale autorzy powołują się na model Mumforda i współpracowników (1994), w którym zakłada się konieczność posiadania wewnętrznej reprezentacji wiedzy o problemie oraz dostrzegania w niej luk. Pretz, Naples i Sternberg powołują się również na model zapropo nowany przez Margaret Boden (1999), która ujmuje twórcze rozwiązywanie problemów jako procesy eksploracji i transformacji danych, realizowane w prze strzeni wiedzy. Twórczy rezultat pojawia się dzięki przekształceniom możliwym do wyjaśnienia na gruncie podejścia informacyjno-przetworzeniowego. Nie ma więc w tym procesie niczego egzotycznego. Rozpoznając nowe problemy i eksplorując zasoby swojej wiedzy, jednostka poszukuje różnych sposobów uporządkowania posiadanej wiedzy albo wykrywa w niej luki. Wsparciem dla hipotezy wrażliwości na luki w wiedzy są również badania nad rozwiązywaniem problemów przez ekspertów. Badania te sugerują, że identyfikacja nowych i wartościowych problemów wymaga znacznego poziomu ekspertywności w danej dziedzinie (Csikszentmihalyi, 1999; Simonton, 1999). Nowicjusze mają tendencję do „odkrywania” problemów, które już istnieją w danej dziedzinie. Inne badania pokazały, że odkrywaniu problemów sprzyja synteza wiedzy z różnych dziedzin (Csikszentmihalyi, Sawyer, 1995). Sposób reprezentowania problemu, decydujący o efektywności jego roz wiązywania, zależy od posiadanych danych na wejściu i od złożoności procesów ich przekształcania. Jeśli brakujące dane są fundamentalnie ważne, rozwiązanie problemu może się okazać niemożliwe. Niekiedy jednak możliwe jest wpro wadzenie dodatkowych danych, wzbogacających reprezentację problemu, np. uwzględnienie proporcji pól białych i czarnych w problemie szachownicy. Kiedy
11.5. Fazy rozw iązyw ania problem ów
519
indziej można wyłączyć z analizy dane, które nie są istotne, np. liczbę wszyst kich pól, które można pokryć kostkami domina w problemie uszkodzonej sza chownicy (zob. ramka 11.5, ryc. 11.9a). W problemie dziewięciu kropek należy wyłączyć z analizy jedno lub więcej z przyjętych założeń, np. że kropka jest punktem w sensie matematycznym, czyli jej rozmiar wynosi 0, albo że linia ma zerową grubość.
11.5.3. Faza doboru strategii Strategia rozwiązywania problemu to specyficzny dla zadania sposób jego wy konywania. Z perspektywy psychologii poznawczej chodzi o układ elementar nych operacji (komponentów) przetwarzania informacji, angażowanych w wy konanie zadania. Takimi elementarnymi kom ponentam i może być np. kodowanie, selekcjonowanie, porównywanie. Z perspektywy różnic indywidual nych, strategie poznawcze dotyczą między osobniczego jakościowego zróżnico wania owego układu komponentów. Stosowanie strategii, podobnie jak heurystyk, ma na celu redukcję wymagań poznawczych, jakie stawia przed człowieldem problem, szczególnie jeśli jego złożoność jest duża. Strategie poznawcze ściśle wiążą się z konkretnymi zadaniami poznawczymi, podczas gdy heurystyka ma charakter bardziej ogólny. Wybór strategii jest wynikiem uwzględnienia korzyści i kosztów związanych z ich zastosowaniem. Redukcja wymagań poznawczych jest niewątpliwie korzyścią, lecz zwykle oznacza uprosz czenie sytuacji problemowej, co z kolei może prowadzić do uzyskania błędnego wyniku. Wykazano jednak, że ludzie mają tendencję do używania strategii optymalnych, dopasowanych do sytuacji, co nie znaczy, że niezawodnych (por. Christensen-Szalanski, 1978). Rozwiązując problemy, człowiek wykorzystuje różne strategie ogólnego zastosowania, np..analityczną i syntetyczną (zob. ramka 11.6). Tego typu rozu mienie strategii nie precyzuje zwykle komponentów angażowanych w rozwiązy wanie problemu, lecz sposób organizacji informacji. Strategia analityczna polega więc na rozbiciu problemu na jego składowe, podczas gdy syntetyczna na jego całościowym ujęciu. Nie jest to zatem podejście, które zbliża nas do pełnego zrozumienia elementarnych mechanizmów rozwiązywania problemów. Dlatego też uważa się (np. Hormon, Morse, 1995; Peverly, 1991), że skuteczne rozwiązywanie problemów jest wynikiem jednoczesnego wpływu dwóch czynników. Pierwszy z nich to umiejętność efektywnego używania strategii rozwiązywania problemów i zdolność do adekwatnego łączenia ich w dłuższe sekwencje. Jest to tzw. poziom strategiczny, związany ze sprawnością procesów wykonawczych - elementarnych operacji poznawczych, odpowiedzialnych za realizację konkretnych zadań. Drugim czynnikiem jest zdolność analizy po tencjalnych strategii, wyboru strategii najbardziej użytecznej z punktu widzenia realizacji celu i eliminacji strategii mniej użytecznych. Jest to poziom metapoznania, obejmujący wiedzę na temat funkcjonowania własnego umysłu. Podobnie jak w przypadku wielu innych złożonych procesów poznawczych, skuteczne rozwiązywanie problemów jest wynikiem interakcji czynników wy konawczych i metapoznawczych (Davidson, Sternberg, 1998; Nęcka, Orze chowski, 2005).
520
Rozdział 11. Rozwiązywanie problemów
Ramka 11.6
Strategie rozwiązywania problemów
Rozencwajg (1991; Rozencwajg, Corroyer, 2002) poddała analizie strategie poznawcze stosowane w zadaniu z „kostkami” (block-deslgn task) Kohsa (1923). Zadanie to polega na ułożeniu zadanego wzoru z podanych elementów tytułowych kostek, czyli jedno albo dwukolorowych kwadratów. Zadanie to, w różnych wersjach, jest elementem wielu testów inteligencji, np. skali inteligencji Wechslera (WAIS—III; Wechsler, 1997). Zdolności niezbędne do jego wykonania są silnie nasycone czynnikiem inteligencji ogólnej. Na przykład w badaniach Royera i współpracowników (1984) korelacja między testem Kohsa a poziomem IQ, zmierzonym skalą Bineta, wyniosła r = 0,80. Rozencwajg w swoich badaniach zastosowała komputerową wersję zadania Kohsa, w której można śledzić kolejne czynności wykonywane przez osoby badane, rejestrując różne wskaźniki, a następnie wnioskować o użytych strategiach. Autorka wykryła trzy rodzaje strategii: analityczną, globalną i syntetyczną. Strategia analityczna polega na mentalnej „rozbiórce” (segmentacji) przedstawionego złożonego wzorca na jego części składowe, odpowiadające formie kostek, czyli elementów z których ów wzorzec trzeba było „odbudować”. Następnie każdą z kostek, którą dysponowała osoba badana w danej próbie, zestawia się z wyróżnionymi wcześniej częściami wzorca. W ten sposób, krok po kroku, odtworzony zostaje cały wzór. Strategia globalna ujmuje wzorzec jako całość, która nie podlega segmentacji na mniejsze części. W zamian posiadane kostki podlegają przeróżnym manipulacjom dopóty, dopóki nie zaczną pasować do wzorca, albo do wzoru tworzonego przez kostki zestawione już z sobą, o ile poprawnie odtwarzają cały układ. Trzecia strategia syntetyczna - polega na uchwyceniu postaci całego układu. Było to możliwe, gdyż zastosowano regularne wzorce, takie jak trójkąt lub diament. Strategia syntetyczna polega na zestawianiu bloków w porządku konfrontowanym z postacią wzorca. W tym sensie strategia syntetyczna jest zależna od owej postaci, podczas gdy w strategii analitycznej zależności tej nie ma. O ile strategia analityczna wymaga segmentacji wzorca, o tyle w strategii syntetycznej nie jest to potrzebne. W opracowanym przez siebie zadaniu komputerowym rejestrowano cztery wskaźniki, których następnie użyto do wnioskowania o indywidualnych strategiach stosowanych przez badanych. Pierwszy wskaźnik - segmentacja - polegał na rejestrowaniu liczby poprawnie i błędnie ustawionych kostek. Nazwa wskaźnika wywodzi się stąd, że osoba, która poprawnie uzupełnia wzór, sprawniej izoluje elementy układu wzorcowego; łatwiej dokonuje ich segmentacji, czyli podziału na części odpowiadające blokom, z których należy „odbudować" wzorzec. Drugi wskaźnik - zorientowanie - to liczba prób prowadzących do poprawnego umiejsco wienia każdej z kostek. Wysoka wartość tego indeksu świadczy o stosowaniu metody prób i błędów, a niska - o kierowaniu się uporządkowaną strategią. Kolejny wskaźnik to porządek umiejscowienia, czyli ocena zgodności lokalizacji każdej kostki, dokonywana w momencie zakończenia zadania. Ocena ta dotyczy zarówno bezwzględnej lokalizacji kostek w rzędach albo kolumnach, jak i względnej ich konfiguracji, czyli ujęcia postaci całego wzorca. Czwarty wskaźnik - częstość konsultacji wzorca - zdefiniowano jako iloraz liczby wyświetleń wzorca do ogólnej liczby ruchów, które wykonała osoba badana. W tab. 11.3 przedstawiono
11.5. Fazy rozwiązywania problemów
521
teoretyczne profile, odpowiadające każdej z wymienionych strategii, odwołując się do wskaźników rejestrowanych w zadaniu Rozencwajg. Tab. 11.3. Profile strategii w zadaniu bloki Kohsa (za: Rozencwajg, Corroyer, 2002). Indeks strategii
Segmentacja
Zorientowanie
Porządek postaci
Częstość konsultacji wzorca
Analityczna
1
1
1
0,2
Syntetyczna
1
1
0,4
1
Globalna
0,5
0,5
0,5
0,5
Czynnikiem metapoznawczym, wpływającym na dostępność i elastyczność używania strategii, jest wiedza ekspercka (Lehrem, Littlefield, 1993; Novick, 1988; zob. rozdz. 4). Wykryto, że osoby mniej efektywne w rozwiązywaniu pro blemów mają dostęp do mniejszej liczby rutynowych strategii, albo efektywność ich realizacji jest mniejsza, niż w przypadku osób bardziej efektywnych. Przyczyną jest najczęściej ograniczona wiedza, czyli niewystarczający poziom ekspertywności (Siegler, Shrager, 1984) lub niski poziom uzdolnień (Swanson, 1990). W badaniach Swansona okazało się jednak, że wysoki poziom uzdolnień metapoznawczych jest czynnikiem kompensującym ewentualny deficyt uzdol nień, mierzony osiągnięciami szkolnymi. Te ostatnie okazały się istotne jedynie wówczas, kiedy osoba cechowała się niskim poziomem uzdolnień metapozna wczych, co autor interpretuje jako przejaw częściowej niezależności poziomu wykonawczego i metapoznawczego w rozwiązywaniu problemów. Szereg badań (np. Novick, 1988) pokazuje, że wiedza ekspercka jest czynnikiem wspomaga jącym wybór odpowiedniej strategii dzięki dostrzeganiu analogii między aktualnym zadaniem, a problemami rozwiązywanymi wcześniej. Doświadczenie eksperta pozwala zazwyczaj na szybkie i trafne zidentyfikowanie struktury problemu i użycie najlepszej strategii. W badaniach Laury Novick (1988) manipulowano transferem pozytywnym albo negatywnym w obrębie serii zadań matematycznych. Ekspertów i no wicjuszy wyłoniono na podstawie części matematycznej amerykańskiego testu uzdolnień szkolnych SAT (Scholastic Aptitude Test). W eksperymencie z transferem pozytywnym osoby badane rozwiązywały 4 problemy ćwiczebne, a następnie 5.', docelowy. Problemy 1., 3. i 4. były niezwiązane zarówno ze sobą, jak i z problemem docelowym, tak ze względu na ich strukturę powierzchniową (treść zadania tekstowego), jak i głęboką (procedurę rozwiązania). Dwa z tych problemów wymagały obliczeń matematycznych, podobnie jak problem do celowy. Problem 2. powiązany był z problemem docelowym, jednak analogia między nimi miała charakter głęboki, a nie powierzchniowy. W grupie kontrolnej cała procedura była podobna, z wyjątkiem tego, że problem 2. nie wiązał się z problemem docelowym. W przypadku pierwszych 4 zadań, osoby badane oprócz jego treści - otrzymywały instrukcję rozwiązania, natomiast problem 5. rozwiązywały już samodzielnie. W eksperymencie z transferem negatywnym plan badania był podobny, z tym że problem 2. w grupie eksperymentalnej miał
522
Rozdział 11. Rozwiązywanie problemów
charakter dystrakcyjny. Jego podobieństwo do problemu docelowego miało charakter powierzchniowy, ale ich struktura głęboka była różna. Okazało się, że gdy problemy miały podobną strukturę głęboką, lecz różniły się cechami powierzchniowymi, eksperci efektywniej dokonywali transferu procedury rozwiązania problemów analogicznych. W grupie eksperymentalnej zaledwie 6% nowicjuszy rozwiązało problem docelowy, podczas gdy eksperci osiągnęli poprawność na poziomie 56%. Co ciekawe, w grupie kontrolnej nie uzyskano istotnej różnicy między obydwoma grupami. Ponadto eksperci z gfupy eksperymentalnej rozwiązywali problem docelowy szybciej, zarówno porówna niu z nowicjuszami, jak i ekspertami z grupy kontrolnej. Natomiast kiedy problemy były podobne pod względem cech powierzchniowych, ale różniły się na poziomie struktury głębokiej, efekt transferu negatywnego okazał silniejszy w przypadku nowicjuszy. W warunku eksperymentalnym 92% nowicjuszy i 83% ekspertów zastosowało błędną procedurę rozwiązania zadania docelowego. Novick (1988) wyjaśnia uzyskane rezultaty, odwołując się do niewystarczającej wiedzy nowicjuszy, którzy skupiając się na cechach powierzchniowych, błędnie reprezentują problem. Błędna reprezentacja nie zawiera właściwych wskazó wek, pozwalających odnaleźć w pamięci problemy analogiczne, wraz z efektywnymi strategiami ich rozwiązania. Innymi słowy, ze względu na błędny klucz przeszukiwania, niemożliwe jest odnalezienie informacji, która znajduje się w pamięci. W trzecim eksperymencie Novick użyła obu zadań (z transferem pozytywnym i negatywnym) jednocześnie. Założyła, że w przypadku ekspertów spowoduje to konflikt, ponieważ będą musieli zdecydować, którą procedurę wykorzystać. Ich ekspertywność powinna zredukować efekt transferu negatyw nego. Natomiast nowicjusze powinni poprzestać na analizie podobieństwa powierzchniowego, nie wiążąc z sobą problemów analogicznych na poziomie głębokim. Okazało się, że efekt transferu negatywnego był mniejszy o 46% w grupie ekspertów i o 20% w przypadku nowicjuszy, w porównaniu do wy ników uzyskanych w eksperymencie drugim. Zdaniem autorki świadczy to na korzyść tezy, że eksperci dobierają strategie rozwiązywania problemów od wołując się do uprzedniego doświadczenia, ale wykorzystują głęboką strukturę problemu. Nowicjusze natomiast, mimo że również korzystają z nabytych wcześniej procedur, częściej poprzestają na analizie powierzchniowych cech problemu i co za tym idzie, dobierają błędne strategie. Dobór strategii zależny jest nie tylko od typu zadania, lecz również od profilu zdolności jednostki. Szczególnie w przypadku strategii ogólnego zasto sowania, o ich wyborze decydować może w większym stopniu poziom inteli gencji (Kossowska, Nęcka, 1994) i związane z nim dyspozycje systemu poznaw czego, np. pojemna pamięć robocza (Conway i in., 2002; Nęcka, Orzechowski, 2005), a w przypadku problemów dnia codziennego - profil osobowości (Cantor, Harlow, 1994). Przykładowo Kossowska i Nęcka (1994) badali stra tegie używane w rozumowaniu przez analogię. Autorzy wykryli dwie jakościowo odmienne strategie: analityczną i holistyczną. Strategia analityczna polegała na względnie długim, sekwencyjnym i głębokim kodowaniu poszczególnych czło nów analogii i relatywnie szybkim oraz poprawnym wyborze rozwiązania. Stra tegia holistyczna polegała na szybkim, całościowym i płytkim kodowaniu kolej nych członów i wolnym oraz mniej poprawnym wyborze rozwiązania. Wykryto preferencję strategii analitycznej u osób o wysokim poziomie inteligencji. Auto
11.5. Fazy rozwiązywania problemów
523
rzy wyjaśnili ten rezultat w odniesieniu do wymagań poznawczych, jakie stawia strategia analityczna. Mianowicie uznali, że jest bardziej wymagająca dla pamięci roboczej, ze względu na konieczność przetworzenia i przechowania większej ilości informacji. A skoro poziom inteligencji koreluje dodatnio z pojemnością pamięci roboczej, być może właśnie owa pojemność, a nie inteligencja, jest przyczynowo związana z użyciem określonej strategii. Inne badania dowodzą związku inteligencji nie tyle z preferencją wobec określonych strategii, ile z plastycznością ich doboru i użycia (np. Kyllonen, Lohman, Woltz, 1984; MacLeod, Hunt, Mathews, 1978; Mathews, Hunt, MacLeod, 1980; Hunt, 1980). Anzai i Simon (1979) zainteresowali się tym, jak przebiega proces wypra cowywania skutecznych strategii rozwiązywania problemu Wieży z Hanoi, co jest o tyle interesujące, że raczej specyficzne dla dziedziny (domain-specific). Badacze użyli wersji zadania z pięcioma krążkami, śledząc zmiany strategii w czterech kolejnych próbach jego rozwiązywania. Jak łatwo zgadnąć, w ko lejnych próbach badani byli coraz bardziej skuteczni, ale różnica nie polegała wyłącznie na szybszym wypracowaniu rozwiązania. Osoby badane zmieniały strategie działania, początkowo posługując się strategiami ogólnego zastosowa nia (domain-independent), aby potem coraz częściej sięgać po strategie spe cyficzne. Strategie ogólnego zastosowania cechowały się dwiema właściwościa mi. Po pierwsze, wiązały się z preferencją dla rozwiązań z użyciem mniejszej liczby ruchów, co w tym zadaniu jest zawodne, bowiem może prowadzić w ślepą uliczkę. Po drugie, strategie te wiązały się z unikaniem zapętlenia, czyli cofania się do poprzednich stanów. Początkowa preferencja dla strategii ogólnych jest zrozumiała, bowiem był to dla osób badanych problem nowy, a zatem ich użycie było jedynym możliwym posunięciem. Autorzy doszli do wniosku, że wykorzystanie ogólnych strategii, nawet jeśli jest nieskuteczne, pozwala na wypracowanie bardziej skutecznych strategii specyficznych. Dowiedli tego, tworząc adaptacyjny system produkcji (rodzaj systemu sztucznej inteligencji), który na podstawie „doświadczenia” z użyciem reguł ogólnych był w stanie generować nowe reguły produkcji, używane w kolejnych próbach rozwiązania problemu. 11.5.4. Faza zdobywania informacji W tej fazie zdobywane są niezbędne informacje, wymagane do realizacji za planowanej strategii. Informacje o problemie muszą być nie tylko adekwatne w stosunku do jego struktury i charakteru, ale też dopasowane do wcześniej wybranej i dopasowanej strategii działania. W fazie tej może więc być konieczne zdobycie brakujących informacji albo zmiana umysłowej reprezentacji prob lemu, tak aby była dopasowana do wybranej lub preferowanej strategii. Na przykład, jeśli chcemy kupić samochód, organizowanie informacji polega na zdobyciu wiedzy na temat istotnych dla nas właściwości różnych marek i zintegrowaniu ich w spójną całość. Oprócz preferencji indywidualnych, na istotność wykorzystywanych informacji wpływa przyjęta strategia rozwiąza nia problemu zakupu. Jeśli decydujemy się na zakup samochodu używanego, kluczowe jest sprawdzenie jego legalności i stanu technicznego. Poszukujemy
524
Rozdział 11. Rozwiązywanie problemów
więc tych informacji, korzystając z usług policji i kompetentnego mechanika samochodowego. W przypadku zakupu nowego auta w salonie, powyższe infor macje nie mają znaczenia. Badania nad tak rozumianym pozyskiwaniem i wy korzystaniem informacji w rozwiązywaniu problemów są domeną psychologii podejmowania decyzji (zob. rozdz. 13). Carlson, Khoo, Yaure i Schneider (1990) zbadali związek między nabywaniem sprawności w rozwiązywaniu problemów a poziomami organizacji informacji. Autorzy dowiedli, że organizacja informacji o problemie odbywa na trzech poziomach: strategii, podcelów i operatorów. 1 1.5.5. Faza alokacji zasobów Alokacja zasobów jest nie tyle osobną fazą rozwiązywania problemów, ile pro cesem towarzyszącym innym fazom, ponieważ każda z nich wymaga innego rodzaju zasobów. Charakteryzując proces rozwiązywania problemu pod kątem alokacji zasobów, należy uwzględnić kilka czynników. Po pierwsze, istotny jest rodzaj wymaganych zasobów. W grę wchodzą takie zasoby, jak czas, przedmioty materialne, siła fizyczna, wysiłek umysłowy, zaangażowanie emocjonalne, wie dza, technologia itd. Po drugie, ważny jest przydział zasobów w trakcie procesu szukania rozwiązania, ponieważ w różnych fazach cyklu potrzebne jest większe bądź mniejsze zaangażowanie określonych zasobów. W przypadku zasobów poznawczych, np. jednej bądź wielu funkcji uwagi czy pamięci, jest to proces niesłychanie trudny do zarejestrowania. Podobnie jest z innymi zasobami 0 charakterze psychologicznym, takimi jak wiedza i emocje. Odpowiedź na py tanie, które zasoby poznawcze są szczególnie wymagane w zależności od fazy cyklu, pozwoliłaby głębiej wniknąć w naturę procesu rozwiązywania problemu, w szczególności - zarejestrować kluczowe jego momenty, np. ujawnienie się przeszkód lub wgląd. O dynamice alokacji zasobów wiadomo stosunkowo niewiele. Wiadomo, że osoby bardziej sprawne w rozwiązywaniu problemów więcej czasu poświęcają wstępnym fazom rozwiązywania problemu (identyfikacji, definiowaniu 1 reprezentowaniu problemu) niż fazom późniejszym (Bloom, Broder, 1950). Wiadomo, że eksperci w porównaniu z nowicjuszami poświęcają więcej zaso bów poznawczych planowaniu globalnemu, dotyczącemu całości problemu, niż planowaniu lokalnemu, odnoszącemu się do fragmentów problemu lub do szczegółowych podcelów (Larkin i in., 1980b). Okazuje się jednak, że eksperci są lepsi od nowicjuszy w obu rodzajach planowania, choć główna ich przewaga dotyczy planowania globalnego (Sternberg, 1981). Cary i Carlton (1999, 2001) badali proces wykorzystania zasobów pamięci roboczej w rozwiązywaniu problemów arytmetycznych. Były to zadania wymagające wykonania serii zadań arytmetycznych, wykorzystujących jako argumenty wyniki wcześniej wykonanych działań. Ze względu na sekwencyjną ekspozycję zadań, niezbędne było przechowanie wyników cząstkowych. Część osób badanych mogła w tym celu wykorzystać zewnętrzne nośniki informacji mogła po prostu notować - podczas gdy pozostali musieli wykonywać zadania w pamięci. Obie grupy wypracowały skuteczne strategie radzenia sobie z problemem, lecz w drugiej grupie były to strategie minimalizujące obciążenie pamięci roboczej. Kiedy jednak osoby badane mogły zdecydować, czy chcą
11.5. Fazy rozwiązywania problemów
525
korzystać z pamięci zewnętrznej, czy też wolą wykonać zadanie w pamięci, wybór zależał od kosztów wykorzystania tych zasobów. Kiedy wzrastał koszt zastosowania pamięci zewnętrznej, np. gdy notatki osoby badanej zapisywano losowo na ekranie komputera, osoby badane w większym stopniu skłonne były angażować pamięć roboczą. I odwrotnie - kiedy wzrastał koszt korzystania z pamięci roboczej, np. trzeba było selekcjonować wyniki wypracowanych wcześniej działań, osoby badane częściej korzystały z notowania. Analiza no tatek sporządzanych przez osoby badane pokazała, że zwykle są one wybiórcze, co sugeruje, że uczestnicy posługiwali się obydwiema strategiami. Natomiast preferencja wobec nośnika zewnętrznego lub pamięci roboczej była ściśle związana z manipulacją kosztami wykorzystania obu „mediów”. Z kolei Grant i Spivey (2003), korzystając z metody śledzenia ruchów gałek ocznych, badali funkcjonowanie uwagi wzrokowej w trakcie rozwiązywania problemu rentgenowskiego Dunckera (1945; paradygmat 11.2). Autorzy przyjęli, że zaangażowanie uwagi wzrokowej w przetwarzanie istotnych cech problemu jest jednym z kluczowych procesów, leżących u podłoża wglądu. Kłopot w tym, że w problemach wymagających wglądu osoba badana nie wie, jakie cechy problemu są istotne. Niekiedy samo przedstawienie problemu niewłaściwie ukierunkowuje uwagę badanych, jak np. w problemie dziewięciu kropek (zob. ramka 11.1). Knoblish i współpracownicy (1999, 2001) twierdzą, że mechanizm restrukturyzacji pola problemowego w zadaniach wymagających wglądu polega na rozluźnieniu ograniczeń i dekompozycji problemu na części składowe. Wymaga więc specyficznej alokacji zasobów poznawczych, np. uwagi wzrokowej, ale i pamięci roboczej, bo w niej właśnie dokonuje się manipulacja elementami zadania. W badaniach Grant i Spiveya (2003) osobom badanym prezentowano uproszczony diagram, symbolizujący problem rentgenowski (zob. ryc. 11.11), śledząc jednocześnie ruch gałek ocznych. Wykryto systematyczne wzorce alokacji uwagi wzrokowej różnicujące osoby, które rozwiązały problem w przepisowym czasie 10 min, od badanych, którym to się nie udało. Analizie podlegał czas średni fiksacji wzroku na każdej z cech diagramu. Okazało się, że osoby, które skutecznie rozwiązały problem, dłużej - w porównaniu z osobami nieskutecznymi - utrzymywały wzrok na skórze (o ok. 50%) i poza diagramem (o ok. 20%). Zdaniem autorów koncentracja na tych elementach pomaga badanym w redefinicji problemu, bowiem skóra reprezentuje relację między środowiskiem a organizmem i jest miejscem, w którym promienie rozpoczynają swój wpływ na zdrową tkankę. Wyniki te świadczą o związku procesu alokacji uwagi wzrokowej (koncentracji na kluczowych elem entach zadania) z efektywnością rozwiązywania problemu. W kolejnym eksperymencie autorzy manipulowali wyróżnieniem cech problemu, ujętych na diagramie w postaci animacji (pulsowania). Osoby badane rozwiązywały problem z wyróżnionym nowotworem lub z wyróżnioną skórą, albo bez żadnej animacji. Okazało się, że wyróżnienie skóry powodowało znaczący przyrost liczby osób, które skutecznie rozwiązały problem (z 37% w warunku statycznym do 67%). Reasumując, wydaje się, że ograniczone zasoby poznawcze, jakimi dyspo nujemy, wymagają starannej alokacji już od wczesnych faz przetwarzania informacji (uwaga wzrokowa), aż do jej obróbki w pamięci roboczej. Trafność decyzji o alokacji zasobów wiąże się bardzo ściśle ze skutecznością rozwią zywania problemu.
526
Rozdział 11. Rozwiązywanie problemów
Paradygmat 11.3
Problem nieoperacyjnego zniszczenia guza jam y brzusznej (Duncker, 1945)
Niemiecki psycholog Karl Duncker (1945), klasyk w dziedzinie badań nad rozwią zywaniem problemów, zapoczątkował powszechne użycie tego zadania w bada niach eksperymentalnych nad myśleniem. Jest to realny problem, który stanął przed lekarzami w pewnym okresie rozwoju medycyny, a jego rozwiązanie stoso wane jest w zbliżonej postaci do dziś. Problem dotyczy sposobu zniszczenia guza żołądka za pomocą promieniowania. Wiadomo, że promieniowanie rentgenowskie niszczy tkankę organiczną, zarówno chorą, jak i zdrową. Chodziło o opracowanie takiej metody, która pozwoli na zniszczenie guza, przy zachowaniu nienaruszonych zdrowych tkanek w jego otoczeniu. Jest to przykład problemu źle określonego. Rozwiązanie polega na wykorzystaniu wielu źródeł promieniowania o niewielkiej mocy, z których każde z osobna nie jest szkodliwe dla tkanek. Jednak ich ułożenie jest takie, że promienie zbiegają się (skupiają jak w soczewce) w miejscu, w którym znajduje się guz (zob. ryc. 11.10). Dzięki temu w miejscu koncentracji uzyskuje się
Ryc. 11.10. Problem rentgenowski (za: Duncker, 1945).
na tyle duże natężenie promieniowania, że jest ono w stanie zniszczyć chorą tkankę, nie czyniąc większej szkody tkankom leżącym na drodze poszczególnych źródeł promieniowania. Obecnie, jeśli stosuje się tę metodę leczenia, polega ona na użyciu jednego źródła promieniowania o dużej mocy, które krążąc pod odpo wiednim kątem wokół pacjenta uzyskuje maksymalne natężenie dawki promienio wania w miejscu zajętym przez nowotwór. O tym, że jest to problem źle określony, świadczy nie tylko niski zazwyczaj poziom wykonania zadania (zaledwie 10% poprawnych rozwiązań), ale również absurdalność niektórych błędnych rozwiązań. Badani proponują np. rozwiązanie, polegające na uodpornieniu zdrowych tkanek
11.5. Fazy rozwiązywania problemów
527
za pomocą słabego promieniowania. Jak wiadomo, nie można uodpornić się na promienie Roentgena, a nawet gdyby było to możliwe, to zapewne uodporniłyby się zarówno tkanki zdrowe, jak i chore. Na podstawie swoich badań Duncker doszedł do wniosku, że rozwiązywanie problemów ma charakter fazowy. Badani zaczynają od sformułowania rozwiązań ogólnych, które de facto nie są jeszcze rozwiązaniami, lecz dookreśleniem proble mu (np. zmniejszenie intensywności promieniowania w czasie przechodzenia przez zdrową tkankę). Kolejne rozwiązania są coraz bardziej szczegółowe, aż do takiego sformułowania, które rzeczywiście odpowiada na pytanie: „jak to zrobić”, aby dzięki użyciu promieni Roentgena usunąć guz. Problem nieoperacyjnego zniszczenia guza jest bardzo popularny wśród badaczy zjawiska transferu przez analogię (zob. rozdz. 11.7.2).
Ryc. 11.11. Symboliczna reprezentacja problemu rentgenowskiego Dunckera (1945), prezentowana osobom badanym przez Grant i Spiveya (2003, s. 463). Opisy umieszczone na diagramie nie byty prezentowane osobom badanym, lecz wyjaśniane w instrukcji do zadania.
11.5.6. Faza monitorowania postępu Monitorowanie jest procesem kontrolnym. Chodzi w nim o bieżące śledzenie przebiegu procesu rozwiązywaniu problemu i związanych z tym postępów lub objawów impasu. Paradoksalnie, osoby skutecznie radzące sobie z problemami monitorują proces rozwiązywania mniej uważnie lub w sposób mniej ciągły, bowiem monitorowanie samo w sobie pochłania zasoby poznawcze. W przy padku takich osób monitoring odbywa się w momentach kluczowych dla pro cesu rozwiązywania problemu. Dzięki takiej kontroli i elastycznemu podejściu
528
Rozdział 11. Rozwiązywanie problemów
do problemów, eksperci stosunkowo wcześnie dokonują diagnozy ewentualnych błędów, korygują je, albo rozpoczynają pracę od początku, np. wracają do definicji problemu. Analiza protokołów werbalnych prowadzi do wniosku, że proces monito rowania czynności może być uruchamiany dzięki werbalizacji. Wspominano, że werbalizacja np. zwiększa ilość przypominanego tekstu, po jego wcześniejszym przeczytaniu na głos (Ballstaedt, Mandle, 1984). Efekt ten może wynikać z uruchomienia pamięci słuchowej (chociaż Baddeley uważa, że zarówno cicha, jak i głośna werbalizacja angażuje pętlę fonologiczną), albo z włączenia refleksji dotyczącej obiektu werbalizacji, np. rozwiązywanego problemu. Zjawisko monitoringu poddali dokładniejszej analizie Berardi-Coletta, Buyer, Dominowski i Rellinger (1995), stosując zadania problemowe wymagające transferu. W jednym z eksperymentów użyli problemu Wieży z Hanoi, trenując osoby badane w wykonywaniu coraz bardziej złożonych jego wersji, a jednocześnie prosili ich o głośną werbalizację. Zastosowano trzy formy instruowania osób badanych co do sposobu werbalizacji: (1) koncentracja na problemie (problemfocused), (2) na procesie poznawczym (metacognitive) i (3) na procesach wnioskowania (//... then). Czwartą grupę poproszono po prostu o głośnie myślenie (think-aloud) w trakcie rozwiązywania problemu, w żaden sposób nie sugerując, czego ma ono dotyczyć. Grupa kontrolna pracowała w ciszy. Zakła dano, że czynnikiem uruchamiającym procesy monitoringu, prowadzące do uzyskania głębszego wglądu w istotę problemu oraz wypracowanie efektywnych strategii jego wykonywania, nie jest werbalizacja per se, lecz jej ukierunkowanie na proces. Okazało się, że najwyższą skuteczność wykonania zadania z sześcioma krążkami, mierzoną liczbą ruchów prowadzących do rozwiązania, uzyskała grupa druga i trzecia. Nie wykryto natomiast istotnych różnic w poziomie wykonania zadania w grupie czwartej i kontrolnej, co sugeruje, że sama werbalizacja nie jest czynnikiem wystarczającym do uruchomienia efektywnego monitoringu. W kolejnych eksperymentach zreplikowano powyż sze rezultaty w zadaniu innego typu (problem karciany o charakterze indukcyjnym, Kantona, 1940). Co więcej, zaobserwowano pozytywny wpływ koncentracji na procesie również bez udziału werbalizacji. Osoby badane poinstruowano, aby po prostu myślały o procesie, analogicznie do instrukcji zastosowanej w grupie drugiej w pierwszym z opisanych eksperymentów, ale bez werbalizacji. Autorzy dowiedli tym samym, że werbalizacja jako taka jest zbędna dla efektywnego monitoringu.
11.5.7. Faza oceny poprawności rozwiązania Podobnie jak proces alokacji zasobów czy monitoringu, również ocena popraw ności może być uruchamiana w różnych fazach pracy nad problemem. Ocenie podlegać może sposób zdefiniowana problemu adekwatność strategii jego rozwiązywania. Ocenione muszą zostać również podcele formułowane w przy padku złożonych problemów (np. dzięki analizie środków i celów) oraz ich realizacja. Jednak odrębną fazą jest ocena poprawności rozwiązania końcowego. Od tej oceny zależy, czy rozwiązanie problemu zostanie zaaplikowane, czy też trzeba ponowić jego poszukiwanie, co oznacza powrót do poprzednich faz.
11.6. Przeszkody w rozwiązywaniu problemów
529
Faza oceny rozwiązań polega na sprawdzeniu możliwości wprowadzenia w życie odnalezionego rozwiązania. W tym celu, według Proctora (2002), trzeba wyodrębnić przeszkody utrudniające aplikację rozwiązania, a następnie ze stawić je ze sposobami ich przezwyciężenia. Innymi słowy, dochodzi do konfrontacji wypracowanego rozwiązania z tzw. warunkami brzegowymi, czyli ograniczeniami nałożonymi na rozwiązanie, czy też na metodę jego osiągnięcia. Przykładowo, w problemie Hobbitów i Orków (Greno, 1974; Thomas, 1974) ograniczeniem nałożonym na rozwiązanie jest to, aby dokładnie wszystkie stworzenia znalazły się po przeciwnej stronie rzeki. Odpada więc rozwiązanie, w którym co prawda wszyscy opuszczają jeden brzeg, ale nie wszyscy trafiają na drugi, bowiem - dla ułatwienia - po drodze utopiono jednego Orka. Sprawdzeniu podlega również legalność przekształceń prowadzących do osiągnięcia celu, np. to, czy zawsze wszyscy pasażerowie wysiadali z łodzi po przepłynięciu rzeki. W tym przykładzie, podobnie jak i w innych problemach konwergencyjnych, zastosowanie się do wyrażonych explicite ograniczeń jest koniecznym i wystarczającym warunkiem akceptacji rozwiązania. W proble mach dywergencyjnych, w szczególności takich, które wymagają twórczego myślenia, nie jest to warunek wystarczający, tym bardziej, że wiele rozwiązań można uznać za poprawne. Dlatego w tych przypadkach ocena musi uwzględ niać szereg innych kryteriów „dobroci” rozwiązania. Ocena możliwości aplikacji odnalezionego rozwiązania, według Proctora (2002), obejmuje ponadto przygotowanie planu działania, mającego na celu wprowadzenie rozwiązania w życie. W przypadku zadań laboratoryjnych jest to zwykle bardzo proste i polega na wykonaniu określonej reakcji, np. naciśnięciu przycisku na klawiaturze komputera. W problemach rzeczywistych, zakładając nawet, że dysponujemy nadzwyczaj skutecznym i nowatorskim rozwiązaniem, plan wdrożenia często okazuje się krytyczny i bardzo kosztowny. Doskonale ujmuje to koncepcja twórczego inwestowania Sternberga i Lubarta (1991, 1995), w której „inwestowanie” w nowatorskie rozwiązania może być „tanie” w procesie jego tworzenia, ale „drogie” w momencie sprzedaży, czyli aplikacji. Chodzi tu np. o koszty skłonienia społeczeństwa do akceptacji rozwiązania, i to nie tylko w przypadku pewnej dziedziny nauki czy sztuki, ale również w życiu codziennym, jak choćby w przypadku używania pasów bezpieczeństwa w samochodach. W związku tym, trzecim czynnikiem związanym z oceną możliwości wdrażania rozwiązań jest, według Proctora (2002), podjęcie działań prewencyjnych i przygotowanie planów awaryjnych. Chodzi o przygotowanie się na wypadek, gdyby rozwiązanie problemu spotkało się z oporem, albo zostało odrzucone.
11.6. Przeszkody w rozwiązywaniu problemów 11.6.1. Sztywność myślenia Sztywność myślenia (rigidity of thought) to utrzymywanie się przeświadczenia, postawy lub sposobu działania, mimo zmiany warunków i braku ich dalszej przydatności. W rozwiązywaniu problemów sztywność jest czynnikiem prze
530
Rozdział 11. Rozwiązywanie problemów
szkadzającym w zmianie reprezentacji problemu, czyli w jego redefinicji. Jest to przeszkoda szczególnie dotkliwa w przypadku problemów wymagających wglą du, które z definicji wymagają przełamania narzucającego się, błędnego sche matu. Sztywność myślenia występuje pod warunkiem wcześniejszego utrwale nia się jakiegoś wzorca postępowania (postawy, schematu albo skryptu poznaw czego), uruchamianego w sytuacji problemowej. Im szybciej on powstaje, tym jest trwalszy i trudniejszy do przełamania (Luchins, Luchins, 1982). Bezrefleksyjność towarzysząca wykonywaniu czynności rutynowych również jest czynnikiem potęgującym sztywność myślenia (Chown, 1959). Odróżnia się dwie składowe schematów, towarzyszących sztywności myślenia: schemat formalnostrukturalny oraz schemat perseweratywny (Guetzkow, 1951; Taylor, McNemar, 1955). Pierwszy wiąże się z fazą nabywania, a drugi - wykorzystania schematów. W indywidualnych przypadkach sztywność może być determino wana jedną z tych składowych, albo ich wpływem interakcyjnym. Hunziker (1964) podzielił sztywność ze względu na typ realizowanych za dań. Wyróżnił trzy jej rodzaje: związaną z nawykiem, restrukturyzacją sytuacji problemowej i generowaniem różnorodnych rozwiązań. Pierwszy rodzaj sztyw ności polega na nawykowym uruchamianiu szybkiej i dobrze utrwalonej, ale niedopasowanej do sytuacji reakcji. Drugi rodzaj sztywności polega na trudności w reorganizacji dostępnych danych w celu ich ponownego zestawienia (Jausovec, 1991). Wiele zadań wglądowych wymaga tego typu reorganizacji (zob. Pretz, Naples, Sternberg, 2003). Natomiast trzeci rodzaj sztywności to odwrotność giętkości ideacyjnej, będącej zdolnością do generowania wielu różnorodnych rozwiązań problemów o charakterze dywergencyjnym (Guilford, 1978). W psychologii rozwiązywania problemów opisano kilka specyficznych dla tego obszaru przejawów sztywności. Są to: błędne nastawienie, fiksacja funkcjonalna oraz inercja mentalna. W przypadku problemów o charakterze społecznym mówi się o schematach i stereotypach. 11.6.2. N astaw ienie Nastawienie {set effect) to schematyczne podejście do problemu, zgodne z wcześniej wytworzonym sposobem jego reprezentacji lub utrwaloną procedurą poszukiwania rozwiązania. W języku teorii Newella i Simona (1972) nasta wienie może zniekształcać każdy z elementów definicyjnych problemu: dane początkowe, cel, operatory i ograniczenia. Jeśli zniekształceniu ulegają dane początkowe, niektóre z nich są ignorowane, a znaczenie innych się przecenia. Zniekształcenie celu polega na niewłaściwej jego reprezentacji, zniekształcenie operatorów - na preferowaniu tylko niektórych sposobów przekształcania sta nów wiedzy, a zniekształcenie ograniczeń - na ignorowaniu pewnych warunków albo przyjmowaniu dodatkowych, nieuprawnionych założeń. W zależności od warunków zadania, nastawienie może ułatwiać lub utrudniać znalezienie rozwiązania. W skrajnym przypadku nastawienie uniemożliwia skuteczne roz wiązanie problemu. Klasycznym przykładem efektu nastawienia jest wcześniej opisany problem dzbanów wody Luchinsa (1942). Początkowe elementy serii wywołują u osoby badanej tzw. indukcję nastawienia (set-induction), prowa dzącą do wytworzenia sztywnej procedury rozwiązania problemu. Kiedy
11.6. Przeszkody w rozwiązywaniu problemów
531
okazuje się, że jest nieskuteczna, badani mają problem z wypracowaniem nowej procedury. Ransopher i Thompson (1991) wykryli, że siła efektu Luchinsa jest tym większa, im więcej było zadań powodujących indukcję nastawienia. Zadanie to ilustruje zarazem tzw. efekt mechanizacji myślenia (mechanization of thought) i obrazuje negatywne skutki transferu uprzednich doświadczeń, jeśli głęboka struktura zadań jest różna. Mechanizacja myślenia jest bardzo interesującym zjawiskiem. Z jednej strony prowadzi do zminimalizowania wysiłku poznawczego, niezbędnego w wy konywaniu zadania, czyniąc proces rozwiązywania problemów bardziej sche matycznym i automatycznym. Jest więc przejawem naturalnej tendencji systemu poznawczego do oszczędzania jego ograniczonych zasobów, np. inwestowanej energii i czasu. Z drugiej strony mechanizacja utrudnia wykorzystanie procesów metapoznawczych, ważnych szczególnie wtedy, gdy trzeba dostrzec głębokie podobieństwo między różnymi problemami, a zignorować podobieństwo po wierzchniowe. Oprócz procesów wykonawczych, które realizują bieżące wykonanie zadania (np. poszukiwanie formuły matematycznej w zadaniu Luchinsa), rozwiązywanie problemu wymaga wykonania złożonych operacji metapoznawczych (Davidson, Sternberg, 1998), takich jak dostrzeganie wspól nych właściwości klasy problemów czy dostrzeganie związków analogii. Wy maga więc zaangażowania wyrafinowanego aparatu poznawczego. Badania nad schematami poznawczymi dostarczają wielu przykładów mechanizacji myślenia o zbawiennych skutkach dla sprawności naszego dzia łania. Przykładowo, znany wszystkim schemat poznawczy, zawierający zestaw „procedur” zachowania się w restauracji, zwalnia nas z konieczności ciągłego ich opracowywania, dzięki czemu możemy w pełni zaangażować się np. w zaj mującą rozmowę z towarzyszącą nam osobą. Dlatego w pewnych sytuacjach inwestycja w metapozawczą obróbkę sytuacji w celu zbudowania adekwatnego schematu poznawczego bilansuje się zmniejszonym wysiłkiem mentalnym w przyszłości. Mechanizacji myślenia może towarzyszyć również osłabienie kontroli poznawczej, kiedy schemat poznawczy realizowany jest automatycznie. Luchins uzyskiwał znaczną poprawę wykonania drugiej części problemu dzbanów wody, gdy po zadaniu 5. „instruował” osoby badane: don’t be blind (nie bądź ślepy). Ponad 50% osób z grupy eksperymentalnej przezwyciężyło wówczas schemat zastosowania formuły B - A - 2C, co autor tłumaczy wzmocnieniem kontroli poznawczej. Uporczywe stosowanie zautomatyzowanych schematów, mimo że nie są one już adekwatne do sytuacji, nazywa się inercją mentalną (mental inertia). Pokrewnym zjawiskiem, zaobserwowanym w twórczym rozwiązywaniu prob lemów, jest inercja ideacyjna (Cattell, Tinner, 1949), polegająca na usztywnie niu się na jednym rodzaju generowanych rozwiązań. Polega to na „krążeniu” wokół jednego skojarzenia czy pomysłu i wytwarzania jego licznych, ale jedno rodnych mutacji. 11.6.3. Fiksacja funkcjonalna Inną przeszkodą w rozwiązywaniu problemów jest fiksacja funkcjonalna {functional fixedness), czyli niezdolność do używania obiektów inaczej, niż
532
Rozdział 11. Rozwiązywanie problemów
w ich typowej funkcji. W przypadku problemu dwóch sznurków Maiera (1931), osoby badane przyjmowały kilka nieuprawnionych założeń, np. że muszą koniecznie sami zbliżyć się do luźno zwisającego sznurka, zamiast sprawić, aby to on zbliżył się do nich. Jednak zadanie to dobrze ilustruje również zjawisko fiksacji na typowych funkcjach przedmiotów znajdujących się w pomieszczeniu. Innym zadaniem ilustrującym zjawisko fiksacji funkcjonalnej jest klasyczny problem umocowania świecy (Duncker, 1945). Badacz zadał sobie pytanie, czy ludzie mogą zignorować typowe funkcje użytkowe obiektów, w celu nietypo wego ich zastosowania podczas rozwiązywania problemu. Osobom badanym dawano do dyspozycji zestaw przedmiotów w sposób przedstawiony na ryc.' 11.12. Były to świece, zapałki, pinezki i pudełka do zapałek. Zadanie polegało na przymocowaniu 3 palących się świec do drzwi na wysokości ok. 1 m, w taki sposób, aby wosk nie zabrudził podłogi, a płomień nie zniszczył drzwi. Dunker zastosował trzy warunki prezentacji wymienionych przedmiotów. W pierwszym osoba badana oprócz przedmiotów umieszczonych na ryc. 11.12, otrzymała
Ryc. 11.12. Problem umocowania świecy (za: Duncker, 1945).
szereg innych. Chodziło o „ukrycie” przedmiotów istotnych pośród zupełnie nieprzydatnych. W warunku drugim osoba badana otrzymywała wyłącznie po trzebne przedmioty, umieszczone w pudełkach. Warunek trzeci był podobny od drugiego, z tą różnicą, że przedmioty umieszczono na stole, a nie w pudełkach, które teraz były puste. Rozwiązanie problemu Dunkera polega na pionowym ustawieniu świec w pudełkach i przypięciu pudełek do drzwi z użyciem pinezek. Dunker zbadał niewielką próbę osób, ale i tak wyniki były zdumiewające. W pierwszym warunku tylko jedna na 7 osób badanych rozwiązała problem, w warunku drugim 3 osoby, a w trzecim - wszyscy. Uzyskane rezultaty wyjaśniono, odwołując się do zjawiska fiksacji funkcjonalnej. Kluczowym obiektem w zadaniu jest pudełko, które musi być wykorzystane w nietypowej funkcji. Zastosowana manipulacja eksperymentalna miała więc dwojaki charakter. Z jednej strony badacz manipulował nieprzydatnym „szumem informacyjnym”, wprowadzając przedmioty zupełnie nieprzydatne do rozwią zania zadania (warunek 1). Z drugiej strony, wzbudzał reprezentację pudełka w jego typowej funkcji (warunek 2). Okazało się, że oba czynniki wzmagały siłę fiksacji funkcjonalnej. Sztywność może też występować jako cecha osobnicza, a nie nastawienie uwarunkowane sytuacyjnie (Cattell, Tinner, 1949). Rozumie się ją wówczas jako dyspozycję i zazwyczaj bada kwestionariuszowo (np. Califomia Personality Inventory-Flexibility, Gough, Bradley, 1996; Need for Closure Scalę, Kruglanski, Webster, Klem, 1993). Sztywność rozumiana dyspozycyjnie wydaje
11.7. Czynniki wspomagające rozwiązywanie problemów
533
się być pozytywnie związana ze sztywnością ideacyjną w zadaniach pozna wczych (np. Kline, Cooper, 1985; Goldman, Flake, 1992). Wskazuje to na konieczność uwzględnienia czynników pozapoznawczych (np. osobowościo wych) jako istotnego źródła różnic indywidualnych w podatności na uleganie efektom usztywnienia w zadaniach poznawczych. Inne czynniki sprzyjające sztywności to zaawansowany wiek (zob. Schaie, 1996), płeć męska (zob. Eagly, 1994) czy obniżony poziom inteligencji (zob. Schaie, 1994) osób badanych. Również osoby z syndromem obsesyjno-kompulsywnym (Dulaney, Ellis, 1994) i osoby cierpiące na schizofrenię (por. Young, Freyslinger, 1995; Young i in., 2002) są bardziej podatne na efekt sztywności myślenia.
11.7. Czynniki wspomagające rozwiązywanie problemów 11.7.1. Transfer pozytywny Transfer pozytywny to przenoszenie wiedzy albo umiejętności z jednego pro blemu na inny, kiedy ich struktura głęboka jest podobna. Doświadczenie w roz wiązywaniu danego typu problemów facylituje wówczas rozwiązanie nowych problemów. W zadaniu Luchinsa (1942) mamy do czynienia ze zjawiskiem transferu, zarówno pozytywnego, jak i negatywnego. Usprawnienie procesu rozwiązywania kolejnych zadań (transfer pozytywny) objawia się w skróceniu czasu udzielenia odpowiedzi. Transfer pozytywny zachodzi jedynie wówczas, gdy zadania są podobne, najlepiej zarówno na poziomie głębokim (struktura), jak i powierzchniowym (treść). Kiedy jednak zmienia się struktura głęboka, ale struktura płytka pozostaje podobna, mamy do czynienia z transferem ne gatywnym. Koniecznym warunkiem transferu pozytywnego jest dostrzeżenie podo bieństwa między problemami. Salomon i Perkins (1987) wyróżniają dwa mechanizmy transferu. Pierwszy polega na spontanicznym uaktywnieniu dobrze zautomatyzowanego schematu dzięki podobieństwu bodźców wyzwalających, obecnych w innym kontekście. Warunkiem tego typu transferu jest, aby wiedza albo strategia poznawcza podlegająca transferowi była dobrze utrwalona oraz mogła być użyta przy niewielkim wysiłku mentalnym. Przykładem może być przeniesienie umiejętności prowadzania samochodu osobowego na samochód dostawczy (Salomon, Perkins, 1987). Drugi mechanizm wymaga odnalezienia wspólnych cech dwóch problemów dzięki abstrahowaniu albo wykorzystaniu analogii. Wymaga to dekontekstualizacji poznanych wcześniej rozwiązań, strategii, czy reguł, zanim podjęta zostanie decyzja, czy transfer jest w ogóle możliwy. Przykładowo, aby na podstawie znajomości efektu Stroopa (1935) postawić sensowne hipotezy odnośnie do wpływu angażującej rozmowy kierowcy z pasażerem na zagrożenie, jakie powodują nowicjusze lub eksperci drogowi, trzeba pozbyć się kontekstu kolorowych słów, stosowanych w zadaniu laboratoryjnym. Kiedy ujmiemy efekt Stroopa w kategoriach bardziej ogólnego mechanizmu interferencji procesów kontrolowanych i automatycznych, okazuje się, że postawienie takich hipotez staje się możliwe. Ponieważ z efektu Stroopa wiemy, że proces kontrolowany nie wpływa zakłócaj ąco na proces automa
534
Rozdział 11. Rozwiązywanie problemów
tyczny, nie powinniśmy spodziewać się negatywnego wpływu rozmowy na prowadzenie samochodu przez eksperta drogowego. Ekspertywność w tym przypadku oznacza wysoki poziom automatyzacji czynności prowadzania sa mochodu. Natomiast u nowicjusza wpływ ten powinien być raczej negatywny, co powoduje zwiększenie zagrożenia kolizji czy wypadku. Dzięki dekontekstualizacji efektu Stroopa możliwy jest więc w tym przypadku transfer pozy tywny, z którego dobrodziejstwa korzysta psycholog eksperymentalny planujący badania.
11.7.2. Transfer przez analogię Szczególnym przypadkiem transferu pozytywnego jest transfer przez analogię. Klasycznym przykładem problemu, gdzie można wykorzystać tego typu transfer jest problem nieoperacyjnego zniszczenia guza jamy brzusznej (Duncker, 1945; paradygmat 11.3). Gick i Holyoak (1980, 1983) w swoich badaniach prosili o rozwiązanie problemu roentgenowskiego, dzieląc osoby badane na trzy grupy. Wszystkie grupy rozwiązywały problem roentgenowski, jednak dwie z nich wcześniej rozwiązywała inny problem, podobny w swojej strukturze do proble mu Dunckera, choć różniący się treścią. Chodziło mianowicie o wymyślenie sposobu zdobycia silnie bronionej twierdzy. Atakujący dysponują odpowiednią siłą, a do twierdzy prowadzi wiele dróg, które zaminowano, przez co nie jest możliwy zmasowany atak z jednego kierunku. Rozwiązanie polega na rozpro szeniu sił i jednoczesnym, koncentrycznym zaatakowaniu wroga z wszystkich stron. Problem ten okazał się łatwy do rozwiązania. Obie grupy eksperymen talne otrzymały następnie problem roentgenowski, z tym, że w jednej z nich dodatkowo wprost zasugerowano możliwość wykorzystania analogii z proble mem zdobycia twierdzy. Grupa kontrolna rozwiązywała tylko problem roentge nowski. Okazało się, że - podobnie jak u Dunckera - jeśli osoby badane roz wiązywały tylko problem roentgenowski, prawidłowe rozwiązanie znalazło 10% uczestników. Jednak wcześniejsze wykonanie problemu izomorficznego (róż niącego się treścią, ale podobnego w swojej strukturze głębokiej) poprawiło wyniki do 30%, i aż do 75%, jeśli dodatkowo pojawiła się jawna sugestia transferu rozwiązania z problemu źródłowego na problem docelowy. Jednak spontaniczny transfer przez analogię (który zachodzi bez informo wania osób badanych o podobieństwie problemów) jest zjawiskiem podatnym na zakłócenia. Spencer i Weisberg (1986) zastosowali podobną procedurę, jak Gick i Holyoak (1980), ale sesję treningową i testową przeprowadzili w różnych miejscach. To wystarczyło, aby wyeliminować spontaniczny transfer. Okazało się również, że manipulacja podobieństwem cech powierzchniowych i głębokich łączącym oba problemy, zmniejsza albo zwiększa prawdopodobieństwo spontanicznego transferu. Na przykład Holyoak i Koh (1987), używając problemów o różnym poziomie podobieństwa powierzchniowego do zadania Dunckera dowiedli, że im większe podobieństwo cech powierzchniowych, tym większe prawdopodobieństwo dostrzeżenia analogii. Również większa liczba problemów treningowych, rozwiązanych przed problemem docelowym, ułatwia ła spontaniczny transfer. Późniejsze badania (Mumford, 1999) pokazały, że w przypadku, gdy znajomość dziedzin, z których pochodzą problemy źródłowe,
11.7. Czynniki wspomagające rozwiązywanie problemów
535
jest mata, ludzie dostrzegają wyłącznie podobieństwo cech powierzchniowych. Dopiero ekspertywność pozwala na dostrzeżenie podobieństwa cech struktural nych. Nie chodzi jednak o mechaniczny przyrost wiedzy, lecz o nabywanie abstrakcyjnych schematów rozumowania, będących ogólnymi reprezentacjami sytuacji problemowych i strategii rozwiązywania problemów. Im bogatsze są owe schematy, tym łatwiejsze staje się dostrzeżenie analogii między różnymi dziedzinami (Chen, Mo, 2004). Niekiedy transfer uprzednio zdobytej wiedzy może przeszkadzać w roz wiązywaniu problemów analogicznych. Dzieje się tak, jeśli podobieństwo struktury problemów jest pozorne, czyli dotyczy ich struktury powierzchniowej, podczas gdy struktura głęboka jest różna, jak w problemach o charakterze transparentnym (Gentner, 1983). Problemy zdobycia twierdzy i zniszczenia guza mają inną strukturę powierzchniową, gdyż mieszczą się w różnych domenach wiedzy, jednak ich struktura głęboka jest wystarczająco podobna.
11.7.3. Inkubacja Inkubacja to spontaniczna (np. w efekcie zmęczenia) albo celowa przerwa w rozwiązywaniu problemu, która pojawia się po doświadczeniu impasu w po szukiwaniu rozwiązania i poprzedza jego odnalezienie przez wgląd. Inkubacja pozwala na uniknięcie niekorzystnych skutków działania przeszkód w rozwią zywaniu problemów. Pojęcie inkubacji wywodzi się z teorii nieświadomego myślenia, zgodnie z którą w czasie przerwy działają intensywne procesy inte lektualne, tyle że nieświadome. Rozwiązanie jak gdyby „wylęga się” (inkubuje) w nieświadomości, aby - najczęściej na zasadzie wglądu - „przebić się” do świadomej części psychiki (Smith, 1995). Współcześnie terminem inkubacja określa się po prostu przerwę w intensywnym zajmowaniu się problemem, nie przesądzając o naturze procesów poznawczych, zachodzących w trakcie jej trwania. Empirycznie wykazano, że powrót do rozwiązywania problemu po przerwie inkubacyjnej zwykle skraca czas odnalezienia rozwiązania. Przykła dowo, Dreistadt (1969) przeprowadził eksperyment, w którym cztery grupy osób badanych wykonywały serię zadań wglądowych przez 20 min. Zadania wymagały przezwyciężenia łatwo narzucających się, ale błędnych rozwiązań, jak np. w problemie dziewięciu kropek (zob. ramka 11.1). Jedna z grup rozwiązywała problemy w pomieszczeniu, w którym w przypadkowych miej scach znajdowały się podpowiedzi do wykonywanych zadań. Były to rysunki sugerujące sposoby reorganizacji rozwiązywanych problemów. Druga grupa nie otrzymywała żadnych podpowiedzi, ale po 5 min aplikowano ośmiominutową przerwę, podczas której osoby badane otrzymywały inne zadanie. Następnie powracały do rozwiązywania problemów wglądowych. Założono, że przerwa w pracy nad problemami uruchomi mechanizm inkubacji. Trzecia grupa również miała przerwę w rozwiązywaniu problemów, a ponadto otrzymywała podpowie dzi, podobnie jak grupa pierwsza. Grupa kontrolna pracowała bez przerwy i nie otrzymywała podpowiedzi. Okazało się, że sama przerwa inkubacyjna nie wspomaga rozwiązywania problemów wglądowych (brak różnic w porównaniu z grupą kontrolną). Sku teczne okazały się natomiast podpowiedzi, zwiększając liczbę poprawnych
536
Rozdział 11. Rozwiązywanie problemów
rozwiązań. Ponadto błędne rozwiązania, które również zdarzały się w tej grupie, bliższe były mimo wszystko rozwiązaniom poprawnym, podczas gdy w innych grupach błędy były mniej „inteligentne”. Rozwiązania uzyskane przez grupę, której zaaplikowano przerwę i która otrzymywała podpowiedzi, okazały się najlepsze. Autor wyjaśnia uzyskane rezultaty odwołując się do mechanizmu dostrzegania wzorców percepcyjnych, wykorzystywanych dzięki transferowi przez analogię w rozwiązywaniu problemu. Mechanizm ten może działać bez udziału uświadomienia (osoby badane nie zdawały sobie sprawy z obecności podpowiedzi w otoczeniu). Oderwanie się od problemu nie wystarczy do uzyskania wglądu, gdyż przerwa inkubacyjna nie działa automatycznie. Stwarza jednak okazję do poszukiwania w otoczeniu wzorców percepcyjnych, inspiru jących nas w rozwiązywaniu problemów. Badania nad wpływem przerwy inkubacyjnej na szybkość i łatwość od nalezienia rozwiązania (Dreistadt, 1969; Ponomarev, 1976) prowadzą do konkluzji, że facylitacja procesu rozwiązywania problemu w fazie inkubacji nie wynika z samego upływu czasu. Niezbędne jest jeszcze zadziałanie innych czynników, np. włączenia dodatkowych informacji do przestrzeni problemu, które mogą zostać wykorzystane w procesie jego rozwiązywania, choćby na zasadzie transferu przez analogię (Langley, Jones, 1988). Może się to dokonać bez zdawania sobie sprawy z obecności jakichkolwiek „podpowiedzi” czy wskazówek. Mechanizm facylitującego wpływu przerwy inkubacyjnej to nie tylko włą czenie dodatkowych informacji do przestrzeniu problemu. Anderson (1975, 1985) proponuje inne wyjaśnienia, zgodnie z którymi przerwa osłabia działanie przeszkód w procesie poszukiwania rozwiązywania. Po pierwsze, przerwa in kubacyjna pozwala na „oczyszczenie” zawartości pamięci roboczej; treści związane z problemem po prostu zanikają, a powrót do problemu po przerwie wiąże się z selektywnym przywołaniem tylko treści istotnych. Dzięki temu pozbywamy się zarówno nieistotnych detali, jak i uprzedniego nastawienia, które może być błędne. Zrekonstruowana w ten sposób reprezentacja sytuacji problemowej może zasadniczo różnić się od wyjściowej. Przerwa służy więc innemu spojrzeniu na problem, a nawet jego redefinicji. Po drugie, przerwa inkubacyjna, powodująca konieczność rekonstrukcji problemu, pozwala na włączenie w pole problemu elementów uprzedniej wiedzy. Wiedza ta często nie może być uaktywniona przed przerwą, czy to z powodu przeładowania pamięci roboczej nadmiarem danych, czy też w wyniku wyższej aktywacji dostarczonych danych w porównaniu do elementów posiadanej wiedzy. Ponowna integracja informacji prowadzi do zmiany nastawienia (Anderson, 1985), bądź innego spojrzenia na problem (Batik, 1982). Przerwa inkubacyjna, o ile towarzyszy jej relaksacja (obniżenie pobudzenia korowego), może prowadzić do ekstensyfikacji uwagi (Kolańczyk, 1991) i zwiększenia chwilowej pojemności pamięci robo czej (Nęcka, 2000). Pierwszy czynnik - uwaga ekstensywna - pozwala na włą czenie do bieżącego przetwarzania tych informacji, które normalnie są odrzu cane jako szum, a mogą stanowić klucz do rozwiązania problemu. Problemy wymagające wglądu łatwiej nam rozwiązać wykorzystując informacje „nieis totne”, np. widok przypadkowych przedmiotów, choć niekiedy trzeba nam również wyłączenia z przestrzeni problemu informacji z pozoru istotnych, np. specyficznego ustawienia bodźców w problemie dziewięciu kropek, sugerującego
11.7. Czynniki wspomagające rozwiązywanie problemów
537
konieczność „zaniknięcia się” w planie kwadratu. Drugi czynnik - pamięć robo cza - pozwala na utrzymanie większej ilości informacji, w tym również „nieistot nej”, w stanie wysokiej gotowości do użycia w procesie rozwiązywania problemu. Nęcka (2001) wskazuje na jeszcze inne, jak się wydaje najprostsze wyjaśnienie mechanizmu inkubacji. Mianowicie przerwa inkubacyjna może być okazją do odpoczynku i regeneracji zasobów energetycznych, szczególnie kiedy rozwiązy wany problem jest trudny i wymaga długotrwałego, wzmożonego wysiłku. 11.7.4. Wgląd Wgląd to pojawiająca się nagle zmiana percepcji problemu, prowadząca do zrozumienia jego istoty. Jak wspomniano, przerwa inkubacyjna może prowadzić do rozwiązania problemu przez wgląd. Tego typu rozwiązanie ma dwie cha rakterystyczne cechy: wgląd wiąże się z zasadniczą zmianą struktury problemu i doświadczeniem nagłości rozwiązania. Jeśli wgląd poprzedza faza inkubacji, towarzyszy mu wcześniejsze doświadczenie impasu czy nawet porażki. Nagłość wglądu stwierdzano zarówno w zeznaniach introspekcyjnych wybitnych twór ców (Ghiselin, 1952; Hadamard, 1964; Shaw, 1989, 1994), jak i w badaniach empirycznych (Metcalfe, 1986; Metcalfe, Wiebe, 1987). Metcalfe i Wiebe (1987) użyły w swoich badaniach dwóch typów problemów: rutynowych (zadania algebraiczne) i wymagających wglądu. W trakcie rozwiązywania osoby badane systematycznie oceniały na skali „ciepło-zimno” subiektywne poczucie od ległości od poprawnego rozwiązania. W przypadku problemów algebraicznych, badani relacjonowali dość jednostajne poczucie zbliżania się do rozwiązania, natomiast w przypadku problemów wymagających wglądu przez większość czasu odczuwali „zimno”, po czym zaraz przed ich rozwiązaniem nagle po jawiało się poczucie „ciepła”. Autorki wyciągnęły na tej podstawie wniosek o nieciągłej naturze procesu rozwiązywania problemów wymagających wglądu. Nagłości wglądu towarzyszy „reakcja aha!”, która oznacza, że rozwiąza nie jest zaskakujące przede wszystkim dla osoby szukającej rozwiązania. Wallas (1926) wyjaśniał to zjawisko, odwołując się do koncepcji nieświadomej pracy umysłu w fazie inkubacji. Skoro rozwiązanie powstaje w nieświadomości, jego przebicie się do świadomości następuje w zupełnie niespodziewanym, czy nawet przypadkowym momencie. Z kolei Weisberg (1986, 1988) uważa, że nieciągłość procesu rozwiązywania problemów jest złudzeniem, bowiem proces ten polega zawsze na systematycznym przyroście wiedzy i kompetencji, która w końcu prowadzi do osiągnięcia celu. Rozwiązywanie problemów, szczególnie tych złożonych, jest ciągiem prób i błędów, więc polega na wie lokrotnym przerywaniu go i podejmowaniu na nowo. Odczucie nagłości bierze się z zaskoczenia osoby rozwiązującej problem, że właśnie ta próba okazała się skuteczna. Zmiana struktury problemu to zmiana jego poznawczej reprezentacji w umyśle. Ponieważ reprezentacja problemu obejmuje dane wyjściowe, cel, dopuszczalne reguły przekształcenia stanów wiedzy i restrykcje wobec opera torów (Newell, Simon, 1972), wgląd może polegać na nagłej zmianie którego kolwiek z tych elementów. Holyoak (1984) mówi ponadto o „wglądowej” zmia nie w zakresie możliwych lub dopuszczalnych strategii poszukiwania rozwiązań,
538
Rozdział 11. Rozwiązywanie problemów
a także o zmianie obiektów, procedur i elementów wiedzy, ułatwiających zde finiowanie i rozwiązanie problemu. Trudność problemów wymagających wglądu polega najczęściej na niedookreśleniu co najmniej jednego z tych elementów. Na podstawie niekompletnych danych człowiek buduje wewnętrzną reprezentację problemu, która po pewnym czasie okazuje się niewłaściwa. Typowe heurystyki są tu zazwyczaj nieskuteczne, bowiem początkowo nie widać żadnego sposobu zredukowania rozbieżności między stanem początkowym a stanem pożądanym. Dlatego pojawia się impas w rozwiązywaniu problemu. Ohlsson (1984a, 1984b) uważa, że impas jest czynnikiem skłaniającym osobę rozwiązującą problem do jego restrukturyzacji, co oznacza zmianę sposobu reprezentowania go w umyśle. Aby jej dokonać, niezbędne jest odnalezienie alternatywnych sposobów umysło wej reprezentacji problemu, a dopiero potem szukanie rozwiązania. Podobna idea legła u podstaw systemu twórczego rozwiązywania problemów TRoP, wprowadzonego przez Nęckę (1994). Autor podzielił techniki twórczego roz wiązywania problemów na takie, które dotyczą przestrzeni problemu, czyli pozwalają na zmianę jego reprezentacji, oraz takie, które działają w przestrzeni rozwiązań, służąc generowaniu pomysłów. Poznawcze teorie wglądu opisują jego mechanizmy odwołując się do elementarnych procesów, które mogą leżeć u podłoża tego zjawiska. W pracach przeglądowych (Davidson, 2003; Nęcka, 2001) wyróżnia się trzy stanowiska, inaczej wyjaśniające ten mechanizm. Na przykład Davidson mówi o nothingspecial approach, puzzle-problem approach i great-mind approach. Nęcka skupia się na konkretnych mechanizmach wglądu, czyli wybiórczości, upra szaniu problemu i korzystaniu z okazji. Ponieważ podziały te częściowo nakładają się na siebie, omówiony zostanie drugi z nich. Podstawowe twierdzenie poznawczych teorii wglądu mówi, że rozwiązy wanie problemów wglądowych nie różni się zasadniczo od rozwiązywania problemów rutynowych, a procesy poznawcze leżące u ich podłoża są zupełnie zwyczajne (nothing-special approach, Sternberg, Davidson, 1982; memory position, Finke, Ward, Smith, 1992). Weisberg i Alba (1981) uważają, że poznawczą podstawą wglądu jest przy pominanie i zastosowanie uprzedniej wiedzy dotyczącej rozwiązywania proble mów. Innymi słowy, u podłoża skutecznego rozwiązania problemów noszących miano wglądowych leży specyficzna wiedza pochodząca z uprzedniego do świadczenia, a nie jakieś egzotyczne operacje umysłowe. Autorzy w swoich badaniach zastosowali problem dziewięciu kropek (Scheerer, 1963), na różne sposoby pomagając osobom badanym w odnalezieniu rozwiązania. Okazało się, że podpowiedź dotycząca podstawowej przeszkody stojącej na drodze do rozwiązania, tj. że rozwiązanie wymaga rysowania linii poza granicami wyzna czonymi przez kształt, w jaki układają się kropki, nie ułatwiała rozwiązania. Ułatwieniem takim było natomiast uprzednie doświadczenie w rozwiązywaniu podobnych problemów. Przypominanie uprzedniej wiedzy (doświadczeń) do tyczącej rozwiązania problemów, okazało się jednak niewystarczające do wyjaśnienia procesu rozwiązywania problemów zupełnie nowych. Dlatego Weisberg i Alba (1982) zaproponowali uzupełnienie procesu rozwiązywania problemów wglądowych o fazę zastosowania wiedzy lub doświadczenia w nowej sytuacji. Jeśli zestawiając nowy problem z posiadaną wiedzą odkrywamy pewne niezgodności, wówczas inicjujemy kolejny proces przeszukiwania pamięci,
11.7. Czynniki wspomagające rozwiązywanie problemów
539
którego celem jest ich usunięcie. Powstaje w ten sposób lista podproblemów, których rozwiązanie pozwala na taką modyfikację sformułowania właściwego problemu, że będzie ono w pełni dopasowane do nowej sytuacji. Zachodzi to wyłącznie na podstawie posiadanej wiedzy i procesów wnioskowania. Inaczej mówiąc, u podłoża rozwiązywania zadań wglądowych leży proces wielokrotnego przeszukiwania pamięci, który pozwala na jego restrukturyzację. Rozwiązywa nie problemów wglądowych, podobnie jak rutynowych, jest procesem ustrukturalizowanym, i polega raczej na realizacji dyskretnych faz, niż na spontanicznym przeformułowaniu problemu albo dokonywaniu „przekazów” umysłowych (zob. Perkins, 1981; Weisberg, 1986). Inne stanowisko również akcentuje „zwykłość” procesów poznawczych leżących u podłoża wglądu, które cechuje specyficzna selektywność. Dotyczy ona procesów kodowania, porównywania i łączenia informacji (Davidson, Sternberg, 1986). Ujmując rozwiązywanie problemów, jako proces przeszuki wania przestrzeni problemu, autorzy uznają selektywność kodowania, porów nywania i łączenia informacji jako czynniki wspomagające nawigację w tej przestrzeni, tj. zmianę wewnętrznej reprezentacji danych i relacji między nimi. Selektywne kodowanie polega na wybiórczym odbiorze informacji z zewnątrz, nie tylko nowej, ale również takiej, która była obecna w polu problemowym, ale ignorowana. Proces selekcji w kodowaniu informacji może mieć dwojaki charakter: zwrócenia uwagi na informacje istotne, ale dotąd ignorowane, albo odwrotnie, inhibicję pozornie istotnych informacji, która działa dystrakcyjnie. Selektywne porównywanie polega na wybiórczym odnoszeniu nowych informa cji do uprzedniej wiedzy. Wtedy może nastąpić odkrycie istotnego, ale niewidocznego wcześniej związku między tymi dwoma typami informacji. Dokonuje się to zazwyczaj dzięki analogii bądź metaforze, o ile dostrzeżone zostanie podobieństwo między nowym problemem, a starą wiedzą i że będzie ono adekwatne. Selektywne łączenie polega na wybiórczym zestawianiu posiadanych elementów wiedzy w nowe całości. Każdy z tych elementów może być znany, ale inne ich zestawienie może spowodować restrukturyzację pro blemu lub jego rozwiązanie. Ponieważ selekcja jest wszechobecna w przetwa rzaniu informacji, a zwykle nie towarzyszy jej wgląd, procesy wymienione przez Davidson i Sternberga muszą spełniać trzy warunki: (1) muszą one sprawiać wrażenie, że wystąpiły nagle i nieoczekiwanie, (2) nie występować od początku pracy nad problemem i (3) prowadzić do zmiany poznawczej reprezentacji problemu. Davidson i Sternberg uważają, że procesy selektywnego kodowania, porównywania i łączenia mogą mieć charakter wglądowy albo niewglądowy, o czym decydują np. względy natury fenomenologicznej (czyli to, że sprawiają określone wrażenie). Co ciekawe, rozwiązanie problemu może niekiedy zostać osiągnięte zarówno drogą wglądu, jak i systematycznego i długotrwałego na bierania wprawy, bez skokowych zmian w sposobie jego reprezentowania. Inne podejście wyjaśniające wgląd odwołuje się do mechanizmu upra szczania problemu. Simon (1977) zauważył, że „prawdziwe” problemy, zwłasz cza naukowe, są nadmiernie złożone. W terminologii psychologii poznawczej oznacza to, że liczba reprezentacji umysłowych składających się na pełne przed stawienie problemu jest olbrzymia. Skoro rozwiązywanie problemów wymaga wielu operacji kombinatorycznych przeprowadzanych na tych reprezentacjach, co z kolei odbywa się w limitowanej pojemnością pamięci krótkotrwałej, to ich
540
Rozdział 11. Rozwiązywanie problemów
kompletne przeprowadzenie jest niemożliwe. Dlatego złożone problemy muszą zostać uproszczone, tak aby nie przeciążyć pamięci w trakcie ich rozwiązywa nia. Kiedy uda się dokonać takiego uproszczenia, rozwiązanie może pojawić się nieoczekiwanie, sprawiając wrażenie nagłości. Uproszczenie może dokonać się albo dzięki zabiegowi oswajania problemu (familiarization), albo dzięki selektywnemu zapominaniu (selective forgetting). Pierwszy z nich polega na grupowaniu elementów składowych problemu w coraz pojemniejsze i bardziej abstrakcyjne „zlepki”. Redukujemy złożoność, tworząc reprezentacje wyższego rzędu, upakowując elementarne składniki wiedzy w struktury nadrzędne. Ponieważ złożone problemy naukowe lub życiowe mogą być rozwiązywane latami, efekty grupowania są kodowane w pamięci trwalej, co pozwala sięgać do nich w dalszych fazach pracy nad problemem. Drugi zabieg - selektywne zapominanie - polega na wyłączeniu z reprezentacji sytuacji problemowej tych elementów, które albo są nieistotne, albo nie pasują do żadnego z upakowanych zlepków informacji. Dzięki selektywnemu zapominaniu elementy zbędne są rzadziej przywoływane z pamięci trwałej, a nawet jeśli już zostaną przywołane, nie można ich wpasować w istniejące struktury wyższego rzędu. O ile oswajanie zachodzi we wczesnych fazach rozwiązywania problemu, o tyle selektywne zapominanie charakterystyczne jest dla fazy inkubacji. Wgląd następuje wów czas, gdy w wyniku wielu cykli oswajania i selektywnego zapominania problem zostanie na tyle uproszczony, że zmieści się w pamięci krótkotrwałej. Nagle wszystkie ważne elementy struktury problemu gromadzą się w jednym miejscu (tj. pamięci roboczej) i czasie, skutkując nieoczekiwanym pomysłem i do głębnym zrozumieniem tematu. Trzecie stanowisko upatruje mechanizm wglądu w wykorzystaniu przy padkowego pojawienia się informacji w polu percepcyjnym. Takie skorzystanie z okazji jest jednak możliwe, jeśli istnieje nastawienie na odbiór tego typu informacji, a to zachodzi wówczas, gdy uprzednio intensywnie, ale bez sukcesu zajmowaliśmy się problemem. Odbiór informacji wspomagającej rozwiązanie problemu odbywa się już automatycznie, zwykle w fazie inkubacji. Seifert i współpracownicy (1995) dokonali opisu tego mechanizmu, który nazwali oportunistyczną asymilacją. Autorzy założyli, że wstępna, przygotowawcza faza, rozwiązywania problemu zawiera cztery stadia. Pierwsze, czyli konfrontacja z problemem, polega na usilnych próbach jego zrozumienia i rozwiązania. Stadium to może trwać bardzo długo. Następnie pojawia się doświadczenie porażki. Istotne dla tego stadium jest uznanie braku zadowalającego rozwią zania i poszukiwanie przyczyn porażki. Autorzy twierdzą, że bez doświadczenia porażki, jej akceptacji oraz zrozumienia jej sensu i przyczyn, wgląd jest mało prawdopodobny. Dalej porażka musi zostać zakodowana w pamięci trwałej, po czym następuje zaprzestanie pracy nad problemem, czyli przejście w stan inkubacji. Inkubacja charakteryzuje się swego rodzaju wrażliwością na in formacje, które mogą być przydatne do rozwiązania problemu. Nie zapominamy tego, co było wcześniej, a jedynie uwrażliwiamy na specyficzne bodźce, które mogą pomóc w znalezieniu rozwiązania. Źródłem tych informacji może być również aktywność wewnętrzna jednostki, będąca wynikiem np. fantazji czy marzeń sennych. Kulminacją fazy inkubacji jest przywołanie śladu pamięcio wego porażki, prowadzące do iluminacji (wglądu), czyli wypracowania po prawnego rozwiązania. Wywołuje to doświadczenie nagłości, wzrost pobudzę-
11.8. Rozwiązywanie złożonych problemów
541
nia emocjonalnego i pozytywny afekt. W fazie początkowej iluminacji dochodzi do zinterpretowania i asymilacji informacji wskazówek pomocnych w prze łamaniu impasu. Koniecznym jej warunkiem jest przywołanie z pamięci oznak impasu, a właściwie szczegółów zarzuconego w wyniku porażki problemu. Dopiero wtedy dochodzi do pełnego zrozumienia problemu i jego rozwiązania, połączone z reakcją „aha!”. Doświadczenie nagłości iluminacji wynika z tego, że odbiór wskazówki odbywa się automatycznie i niekiedy człowiek nie zdaje sobie sprawy z tego, co doprowadziło go do rozwiązania problemu. W tym ujęciu wgląd jest również skutkiem działania zwyczajnych procesów poznawczych. Jednak szczególny ich układ, w połączeniu z podjęciem problemu wymagającego wglądu, może doprowadzić do niezwykłego i subiektywnie tajemniczego doświadczenia nagłości, z jętką rodzi się nowa idea.
11.8. Rozwiązywanie złożonych problemów Osobną kategorię stanowią problemy o bardzo dużym stopniu złożoności. Są to prawdziwe, rzeczywiste problemy występujące w jakiejś dziedzinie życia (reallife problems), albo ich komputerowe symulacje w postaci tzw. mikroświatów (microworlds). Przykładem mikroświata jest program symulujący zarządzanie cukrownią lub wymagający dowodzenia fikcyjnym oddziałem straży pożarnej. W badaniach prowadzonych na gruncie psychologii poznawczej używa się trzech grup zadań (ryc. 11.13). Pierwsza to elementarne zadania poznawcze, np.
Ryc. 11.13. Charakterystyka problemów z uwzględnieniem ich złożoności, czasu wykonania i udziału procesów oddolnych (bottom-up) i odgórnych (top-dowń). Za: Nęcka i Orzechowski (2005). Dziedzina psychologii rozwiązywania problemów interesuje się głównie drugim (CCT) i trzecim (VCCT) typem problemów.
542
Rozdział 11. Rozwiązywanie problemów
zadania wymagające weryfikacji treści zdań. Ich wykonanie wymaga nie więcej, niż kilka sekund, a typowy eksperyment psychologiczny zawiera kilkadziesiąt pojedynczych prób tego rodzaju. Druga grupa to złożone zadania poznawcze, takie jak rozwiązywanie sylogizmów lub analogii. Na takie zadanie potrzeba zwykle kilku minut. Grupa trzecia obejmuje bardzo złożone zadania poznawcze, np. komputerowe symulacje zarządzania cukrownią. Ich wykonanie wymaga zwykle kilku godzin. Klasyfikacja przedstawiona na ryc. 11.13. obejmuje tylko zadania stosowane w eksperymentach psychologicznych. Należałoby ją zatem uzupełnić o problemy jeszcze bardziej złożone, rozwiązywane często w skali wielu lat. Do tej kategorii należą np. problemy naukowe lub wynalazcze, wymagające twórczego podejścia i bardzo silnej motywacji. Im bardziej problem jest złożony, tym jego rozwiązanie wymaga więcej czasu, a ponadto tym ważniejsze staje się zaangażowanie procesów planowania i kontroli poznawczej. Problemy o dużym stopniu złożoności charakteryzuje kilka właściwości (Funke, 1991). Pierwszą z nich jest brak przejrzystości (intransparency), wy nikający z ukrytego charakteru wielu istotnych danych. W złożonych pro blemach zazwyczaj tylko część zmiennych decydujących o wyniku ma charakter obserwowalny. Reszta jest ukryta, a informacje o ich istnieniu muszą być wywnioskowane z tego, co zostało ujęte jawnie, albo na podstawie informacji zwrotnej o skutkach działań powziętych przez osobę zmagającą się z proble mem. Często dostępna jest wyłącznie informacja o symptomach, na podstawie których „diagnozuje się” reguły obowiązujące w jakimś układzie, np. w symu lowanej fabryce. Problem jest mało przejrzysty również wtedy, gdy zmiennych jest na tyle dużo, iż konieczna staje się ich selekcja. Gdyby nie selekcja, system poznawczy uległby przeładowaniu, przez co byłby niezdolny do adekwatnego reagowania. Druga cecha bardzo złożonych problemów to politeliczność (polytely). Problemy takie cechują się wielością celów, które - w rozwiązaniu idealnym należałoby jednocześnie osiągnąć. Często jednak i one muszą podlegać selekcji, bowiem próba uwzględnienia wszystkich kończy się przeładowaniem systemu poznawczego. Cele mogą być ponadto sprzeczne, np. wtedy, gdy firma chce inwestować, a jednocześnie osiągać bieżące zyski. W takiej sytuacji dochodzi do przetargu pomiędzy celami. Trzecia cecha to złożoność sytuacji problemowej (complexity of the si tuation). Decyduje o tym nie tylko duża liczba zmiennych, definiujących sytu ację początkową i wpływających na wynik końcowy, ale również ich wzajemnie związki, niewielka możliwość ich kontroli i duża dynamika zmian w struktu rze problemu. Również w tym przypadku mamy do czynienia z przetargiem między jakością rozwiązania problemu a kosztami związanymi z jego poszu kiwaniem. Zdarza się, że dobre rozwiązanie wymagałoby zbyt dużo czasu i innych nakładów, a to, które jest możliwe do osiągnięcia mniejszym kosztem, nie całkiem nas zadowala. Czwarta cecha złożonych problemów to liczne i różnorodne związki między zmiennymi (connectivity of variables). Problemy tego rodzaju charakteryzują się skomplikowanymi powiązaniami istotnych dla wyniku zmiennych. Zmiana jednego parametru wpływa na stan wielu innych. Im bardziej interakcje zmien nych są skomplikowane, tym trudniej przewidzieć samoistne zmiany sytuacji lub możliwe konsekwencje zmiany wywołanej naszą ingerencją. Na przykład kurs
11.8. Rozwiązywanie złożonych problemów
543
akcji na giełdzie zależy od tak wielu wzajemnie powiązanych czynników, że trudno go trafnie przewidzieć i wykorzystać w podejmowaniu decyzji. Piąty czynnik to dynamiczny charakter zmian (dynamie developments). Złożona sytuacja problemowa podlega samoistnym zmianom, najczęściej na gorsze, zmuszając osobę rozwiązującą problem do podejmowania natychmias towych działań pod presją czasu. Problem tego typu może więc polegać na utrzymaniu obecnej, korzystnej sytuacji, albo na optymalizacji wyniku. Dy namika spadkowa jest wówczas przeszkodą na drodze do jego rozwiązania. Dobrym przykładem jest współczesny marketing, bez którego sprzedaż pro duktów zazwyczaj gwałtownie spada. Aby ją utrzymać, a tym bardziej poprawić, trzeba nieustannie podejmować działania promocyjno-reklamowe, a nawet regularnie wprowadzać ulepszone wersje produktu. Szóstą cechą złożonych problemów jest odroczenie efektów w czasie {timedelayed effects). Skutki podjętych działań widoczne są niekiedy z dużym opóźnieniem. Z tego względu podejmowane działania wymagają uwzględnienia krótko- i długoterminowej perspektywy. W wielu symulacjach ekonomicznych (np. popularna gra komputerowa SimCity) natychmiastowy efekt podniesienia podatków jest korzystny, ale w dłuższej perspektywie prowadzi do zahamowa nia rozwoju przedsiębiorczości i migracji ludności. Podobnie, budowanie wizerunku organizacji wymaga podjęcia wielu długofalowych działań, na których efekty trzeba czekać niekiedy wiele lat. Najczęściej używanym w badaniach laboratoryjnych typem złożonych problemów są zadania wymagające kontroli jakiegoś procesu. Interesującym przykładem jest zadanie BLACK BOX (Mackinnon, Wearing, 1985), które wymaga od osoby badanej sterowania zachowaniem „czarnej skrzynki”. „Skrzynka” ujawnia pewne stany wyjściowe w odpowiedzi na określone stany na wejściu, przy czym związek między wejściem a wyjściem opisuje skompli kowana formuła matematyczna. Osoba badana nie wie, z jakiego rodzaju syste mem ma do czynienia, nie ma więc żadnych wstępnych hipotez dotyczących reguł, rządzących zachowaniem „czarnej skrzynki”. Według kryteriów uwzględ nionych przez Funke’ego, BLACK BOX charakteryzuje się brakiem zmiennych ukrytych, pojedynczym celem, dużym poziomem złożoności reguły wiążącej wejście i wyjście, brakiem presji czasu, dużą dynamiką zmian i odroczeniem efektu w czasie. Jest to więc problem stosunkowo prosty jak na kategorię, do której należy. Na drugim krańcu kontinuum złożoności znajdują się problemy zawierające więcej niż 100 zmiennych. Przykładem tego typu jest LOHHAUSEN, przedstawiające symulację funkcjonowania niewielkiego miasta (Dórner i in., 1983). Celem osoby badanej jest dbanie o rozwój miasta w perspektywie krótko- i długofalowej (10 wirtualnych lat). Symulacja obejmuje ponad 2000 zmiennych(!), z których tylko niewielka część podlega bezpośredniej kontroli. Tego typu zadanie pozwala na wielopoziomową manipulację wszystkimi dymensjami, wyróżnionymi przez Funke’ego. Skoro złożone problemy cechują się właściwościami odróżniającymi je od problemów prostych, prawdopodobnie wymagają też specyficznych mechaniz mów poznawczych (Funke, 1991). Knaeuper i Rouse (1983) wyróżnili cztery specyficzne zadania realizowane w złożonych problemach, polegających na re gulacji skomplikowanego systemu, jakim są symulacje wykorzystywane w bada niach psychologicznych. Są to: (a) wprowadzenie złożonego systemu w pożąda
544
Rozdział 11. Rozwiązywanie problemów
ny stan, (b) stabilizacja stanu systemu, (c) detekcja i diagnoza niedomagań systemu i (d) kompensacja tych niedomagań. Realizacja tych zadań wymaga zdaniem autorów trzech rodzajów wiedzy. Pierwszy dotyczy dynamiki (ewolu cji) systemu, w warunkach braku kontroli. Wiedza ta jest niezbędna, aby ustalić, jakie czynniki (zmienne wyjściowe) należy tej kontroli poddać. Drugi rodzaj wiedzy dotyczy efektów wywołanych podjęciem określonych działań. Jest to zatem wiedza na temat związków między zmiennymi wejściowymi a wyjścio wymi. Trzeci rodzaj wiedzy dotyczy stosowanej strategii, a więc tego, które z czterech wyszczególnionych powyżej zadań należy realizować w danym momencie. Inni badacze poszukują związku między efektywnością rozwiązywania zło żonych problemów a różnicami indywidualnymi w zakresie zdolności intelek tualnych (por. Wenke, Frensch, 2003). Autorzy uważają, że stawiając problem w ten sposób, w istocie pytamy o to, „jakie procesy mentalne lub reprezentacje, albo jakie właściwości procesów mentalnych lub reprezentacji, mogą być osta tecznie odpowiedzialne za zachowanie w trakcie rozwiązywania problemów” (s. 91). Zdolności intelektualne w ich ujęciu rozumiane są jako elementarne mechanizmy poznawcze, wpływające na wykonanie szerokiej gamy zadań. W ramach tych mechanizmów obserwuje się różnice międzyosobnicze, ale nie są one modyfikowane doświadczeniem. W opozycji do wielu badaczy inteligen cji, Wenke i Frensch nie ograniczają pojęcia zdolności intelektualnych do świadomie czy intencjonalnie uruchamianych i aplikowanych procesów prze twarzania informacji lub strategii poznawczych. Ich zdaniem wszelkie procesy przetwarzania informacji mogą potencjalnie stanowić zdolności intelektualne. Związek inteligencji z rozwiązywaniem problemów można byłoby zatem in terpretować w odniesieniu do ich wspólnych mechanizmów poznawczych. W badaniach empirycznych najczęściej nie stwierdza się jednak takiego związ ku, bądź jest on słaby - tym słabszy im problem jest semantycznie bogatszy (bowiem wymaga specjalistycznej wiedzy, a nie zdolności ogólnych), im gorzej określone są cele, albo im bardziej problem jest transparentny. Rezultaty te tłumaczy się albo niską trafnością ekologiczną testów IQ (Dörner, Kreuzig, 1983; Putz-Osterloh, 1983), co wydaje się chybione, jeśli inteligencję rozumieć jako zdolność do myślenia abstrakcyjnego, albo niską rzetelnością zadań wy korzystywanych w symulacjach laboratoryjnych (Kluwe i in., 1991). Okazuje się, że inny sposób operacjonalizacji wskaźników wykonania złożonych problemów prowadzi do odmiennych konkluzji, np. w symulacji TAILORSHOP (Funke, 1983; Putz-Osterloh, 1981; Süß, Kersting, Oberauer, 1991; Wittman, Süß, 1999, zob. ramka 11.7). Wydaje się jednak, że uwzględnienie czynników poznawczych nie wystar cza do wyjaśnienia procesu rozwiązywania złożonych problemów. Dlatego też najnowsze badania kładą nacisk na interakcyjny wpływ różnorodnych czyn ników, decydujących o sukcesie w ich rozwiązywaniu. Rezultaty tych badań nie są na razie jednoznaczne. Przykładowo, Tucker i Warr (1996) poddali analizie wpływ elementarnych procesów poznawczych (tempo przetwarzania informacji i sprawność funkcjonowania pamięci roboczej), stylów poznawczych (rozumia nych jako różnice indywidualne w sposobach organizacji i przetwarzania in formacji; Messnick, 1984) i poziomu inteligencji na wykonanie złożonego za dania poznawczego. Autorzy użyli symulatora zakupów internetowych (Tele-
11.8. Rozwiązywanie złożonych problemów
545
shoping task\ Wright, Lickorish, 1990). Osoba badana miaia dostęp do wirtualnych katalogów pięciu supermarketów. Poszczególne zadania wymagały odnalezienia cen określonych produktów i porównania ich z sobą. Na przykład osoba badana otrzymywała instrukcję: „Jeśli chciałbyś pójść tylko do jednego sklepu, aby kupić puszkę zupy z kurczaka i puszkę zupy grzybowej, to czy najtaniej będzie pójść do ‘Cutcost’ czy do ‘Deseo’?”. Badacze oddzielili od siebie dwie fazy rozwiązywania problemu: fazę planowania (higher-order deliberatioń), w skład której wchodziło zapoznanie się z zadaniem i zaplanowanie sposobu przeszukiwania bazy danych, oraz fazę wykonania (lower-order operations), która polegała na przeprowadzeniu zaplanowanych wcześniej działań. W efekcie uzyskano dwa wskaźniki czasu wykonania, odpowiadające obu fazom, a ponadto wskaźnik poprawności rozwiązania. Autorzy zastosowali również miarę kwestionariuszową trzech stylów poznawczych: tempa pozna wczego, planowania i złożoności poznawczej. Tempo poznawcze zdefiniowano jako sposób radzenia sobie z przetargiem między szybkością a poprawnością. Planowanie wiązało się ze stopniem, w jakim badani odraczają podjęcie dzia łania w celu jego zaplanowania. Złożoność poznawcza odnosiła się do liczby dymensji branych pod uwagę w myśleniu oraz do sposobu integracji informacji wzajemnie sprzecznych. Uzyskano istotne korelacje wskaźników poziomu wykonania Tele-shoping task z inteligencją (r = -0,60 z czasem planowania i r = -0,70 z czasem wy konania oraz r = 0,50 z poprawnością) i z zakresem pamięci roboczej (r = -0,30 z czasem planowania i czasem wykonania oraz r=0,50 z poprawnością). Stwierdzono również słabe korelacje ze stylami poznawczymi, ale nie podnosiły one ogólnej mocy predykcyjnej zmiennych poznawczych w stosunku do inteligencji. Autorzy przyznają jednak ostrożnie, że zastosowane przez nich zadanie daje być może zbyt mało okazji do wykorzystania różnorodnych stylów poznawczych. Ramka 11.7
Co decyduje o efektywności rozwiązywania złożonych problemów?
Wittmann i Süß (1999) podjęli systematyczne poszukiwania czynników decydują cych o efektywności rozwiązywania złożonych problemów. Autorzy użyli trzech problemów, różniących się poziomem złożoności, oraz baterii testów badających zdolności intelektualne (szybkość, pamięć, twórczość i rozumowanie), pamięć ro boczą (9 podtestów) i wiedzę, specyficzną dla każdego z problemów. Najprostszym z zastosowanych problemów była symulacja elektrowni węglowej (POWER PLANT, Wallach, 1997). Osoba badana wcielała się w operatora elektrowni i manipulując dwiema żmiennymi wejściowymi (ilość węgla na wejściu i stan zaworu) mogła wpływać na dwie zmienne wyjściowe (ilość energii na wyjściu i ciśnienie pary). Należało kontrolować ilość wysyłanej energii, zgodnie z chwilową wartością zapotrzebowania, oraz ciśnienie pary w zadanym zakresie - od mini malnego do maksymalnego. Drugie zadanie (TAILORSHOP; Putz-Osterloh, 1981) było symulacją fabryki koszul, obejmującą 24 zmienne, z czego 10 egzogenicznych, podlegających bezpośredniej kontroli i 14 endogenicznych, sterowanych przez komputer. Celem osoby badanej była maksymalizacja zysków w ciągu wir
546
Rozdział 11. Rozwiązywanie problemów
tualnego roku pracy fabryki. Najbardziej złożony problem to symulacja LEARN (Milling, 1996; Maier, Stronhhecker, 1996), dotycząca zarządzania innowacjami. Osoba badana miała za zadanie zarządzać firmą w rywalizacji z trzema innymi przedsiębiorstwami przez okres wirtualnych 15 lat (w 60 cyklach po 3 miesiące). Celem symulacji była maksymalizacja zysku i dostosowanie się do przyszłych warunków (np. przez prowadzenie badań i polityki rozwojowej, wprowadzanie nowych produktów). Symulacja, obejmująca kilkaset zmiennych, była przygoto wana przez ekspertów z zakresu zarządzania. Poziom inteligencji ogólnej (g) korelował z wynikiem każdej symulacji (r(g/ POWER PLANT) = 0,39; r(g/TAILORSHOP) = 0,33; r(g/LEARN) = 0,32). Korelacja g z wynikiem zagregowanym, pochodzącym z wszystkich trzech symulacji, wyniosła 0,47. Jeszcze silniejszy okazał się związek między czynnikiem rozumowania oraz pamięci roboczej a wynikami symulacji. Twórczość okazała się słabym, ale istotnym korelatem zagregowanego wyniku wszystkich symulacji (r = 0,181; p < 0,05). Model ścieżkowy, obejmujący wpływ czynników pamięci roboczej, inteligencji, specyficznej wiedzy i - kontrolnie - doświadczenia w obsłudze komputera na wynik zagregowany wszystkich symulacji, wyjaśnił ok. 50% jego wariancji. Najciekawsze jest jednak to, że interkorelacje pomiędzy wynikami poszcze gólnych symulacji nie dość, że były niewielkie, to ponadto różniły się kierunkiem (r{POWER PLANTITAILORSHOP) = -0,39; r{POWER PIANT/LEARN) = -0,29; r{TAILORSHOP/LEARN) = 0,22). Pokazuje to, jak wielka jest różnorodność proble mów, ale też mechanizmów decydujących o sukcesie w ich rozwiązywaniu. Wyniki uzyskane przez Wittmanna i SuBa mają kluczowe znaczenie dla praktyki, np. no woczesnych metod selekcji pracowników opartych o symulacje. Ponieważ kore lacje między różnymi symulacjami mogą być nawet ujemne, oznacza to, że ktoś świetny w danym typie problemów może osiągać bardzo słabe wyniki w innych. Aby tego typu metoda selekcji miała sens, musi być oparta na problemach o strukturze analogicznej do zadań, które realizować będzie przyszły pracownik.
Mimo niekonkluzywnych rezultatów badań, Funke (1995) uważa, że za sadne jest uwzględnienie trzech grup czynników będących predyktorami wyko nania złożonych problemów. Są to zmienne osobowe (np. wiedza, zarówno ogólna, jak i ekspercka, inteligencja, twórczość, emocje, czy wspomniane style poznawcze; tutaj mieszczą się również zmienne poznawcze), sytuacyjne (zależne od formalnych właściwości problemu - jego typu, np. utrzymanie aktualnego stanu vs. optymalizacja działania systemu, proporcji zmiennych jawnych do latentnych, sposobu rozwiązywania, np. indywidualnego albo grupowego) oraz one systemowych (związane ze specyfiką i treścią konkretnego zadania).
11.9. Podsumowanie W rozdziale skupiono się na poznawczych mechanizmach złożonej aktywności umysłowej, jaką jest rozwiązywanie problemów. Próba klasyfikacji różnych rodzajów problemów dokonano ze względu na cechy i strukturę problemów oraz
11.9. Podsumowanie
547
ze względu na wymagania poznawcze, stawiane rozwiązującej je osobie. W obu przypadkach próbowano wskazać różne mechanizmy poznawcze, leżące u podłoża zmagania się z różnymi rodzajami problemów. Opisano również różne sposoby ich rozwiązywania, zwane heurystykami, oraz najważniejsze czynniki wspomagające i hamujące ten proces. Heurystyki rozwiązywania problemów zilustrowano przykładami, pokazu jącymi ich praktyczne zastosowania w życiu codziennym. Okazuje się jednak, że heurystyki wykryte w rozwiązywaniu problemów przez ludzi, mogą być sku tecznie implementowane w systemach komputerowych rozwiązujących specy ficzne problemy, np. dowodzące twierdzeń, albo grające w szachy. Dzięki ba daniom na temat tego, jak ludzie rozwiązują problemy, zapoczątkowanymi pracami Newella i Simona, możliwe było np. stworzenie komputera szachowego Deep Blue, który dwukrotnie (w 1996 i 1997 r.) wygrał z Garri Kasparowem, niekwestionowanym arcymistrzem szachowym. Wcześniej udało się to tylko Węgrowi Wolfgangowi von Kempelenowi, którego maszyna z 1769 r. nieźle radziła sobie z grą w szachy, tyle, że w jej wnętrzu znajdował się... człowiek (świetny szachista). Co prawda Deep Blue zupełnie inaczej gra w szachy niż człowiek, jednak dopiero wyposażenie go w „ludzką” wiedzę (np. wszystkie otwarcia szachowe zagrane przez arcymistrzów w ciągu ostatnich 100 lat) i możliwość jej elastycznego użycia zdecydowała o jego wygranej z Kasparowem. Monstrualne możliwości obliczeniowe maszyny, zaprzęgnięte do algorytmu szachowego, nie były wystarczające w konfrontacji z efektywnością uproszczo nych heurystyk stosowanych przez człowieka. Z teoretycznego i praktycznego punktu widzenia interesujące jest również to, że rozwiązywanie problemów wydaje się być procesem fazowym. Z po znawczego punktu widzenia badanie faz pozwala na dekompozycję złożonego procesu na jego elementarne składowe. Następnie każda z nich może być z osobna badana i dalej „rozkładana” na czynniki jeszcze bardziej podstawowe. W efekcie takiego „schodzenia w dół” nawet tak tajemnicze zjawiska jak in kubacja i wgląd można sprowadzić do zupełnie zwykłych procesów pozna wczych, chociaż realizowanych w niekiedy dość niezwykły sposób (np. do selektywnego kodowania czy porównywania informacji, ale opartego na spe cyficznych zasadach selekcji). Z kolei zrozumienie istotny operacji pozna wczych angażowanych w każdej z faz jest podstawą różnych systemów technik twórczego rozwiązywania problemów. Pozwala np. na takie dobranie technik w rozwiązywaniu problemów, aby wspomóc określoną fazę, a nawet konkretny zabieg, np. redefinicji problemu.
R o z d z ia ł
Wydawanie sądów i podejmowanie decyzji
Wydawanie sądów 549
Klasyczna teoria decyzji
572
Tendencyjność w wydawaniu sądów
550
Strategie w podejmowaniu decyzji
Ignorowanie proporcji podstawowej
557
Teoria perspektywy
Wady i zalety prostych heurystyk Sądy intuicyjne
563
Podejmowanie decyzji
561
581
Proces podejmowania decyzji Podsumowanie
576
584
588
572
J
Sądem nazywamy wyrażone wprost twierdzenie na temat pewnego stanu rzeczy, np. przynależności obiektu do określonej kategorii, posiadania przez obiekt jakiejś cechy, wartości danego obiektu z punktu widzenia pewnego kryterium, a także prawdopodobieństwa wystąpienia danego zdarzenia. Decyzja to wybór jednej możliwości działania spośród co najmniej dwóch
opcji. Samo dokonanie wyboru nie oznacza jeszcze podjęcia działania, po nieważ do tego potrzebna jest skuteczna motywacja oraz obiektywne możli wości realizacji decyzji. „Nie jestem ja na tyle szalonym, żebym w Dzisiejszych Czasach co mniemał albo i nie mniemał” - mówi jeden z bohaterów Transatlantyku Witolda Gombrowi cza. Jednak każdy z nas nieustannie wydaje sądy o świecie, o innych ludziach i o samym sobie. Niektóre dotyczą podstawowych problemów filozoficznych, egzystencjalnych lub religijnych, tworząc nasz światopogląd. Inne odnoszą się do rzeczywistości społecznej i politycznej, składając się na nasze postawy wobec różnych składników rzeczywistości społecznej; jeżeli są trwałe i dostatecznie uzasadnione, nazywamy je przekonaniami. Sądy dotyczące samego siebie składają się na spostrzeganie i ocenę własnej osoby. Są wreszcie sądy trywialne, które w niczym nie zmieniają naszego ustosunkowania do świata, innych ludzi i samego siebie, ale składają się na nasze codzienne doświadczenie poznawcze. Niektóre sądy prowadzą do określonych decyzji. Stanowią wówczas po znawcze przygotowanie procesu podejmowania decyzji. Oprócz sądów, w skład takiego przygotowania wchodzi uaktywnianie lub zdobywanie wiedzy, a także procesy myślenia i rozumowania. Bywają jednak decyzje obywające się bez świadomie prowadzonych przygotowań i racjonalnie uzasadnionych sądów; na zywamy je decyzjami intuicyjnymi. Również niektóre sądy mają charakter in tuicyjny, co oznacza, że nie potrafimy ich racjonalnie uzasadnić, że opierają się na doświadczeniu potocznym albo że sformułowano je wbrew regułom logiki.
12.1. Wydawanie sądów Sądy dzielimy w zależności od tego, czego dotyczą i czemu służą. Sądy atrybucyjne odnoszą się do cech, które - według nas - charakteryzują ludzi (włącz nie z nami samymi) lub inne obiekty (Wojciszke, 1991). Sądy probabilistyczne polegają na ocenie szans lub zagrożeń, lub prawdopodobieństwa wystąpienia zdarzeń całkowicie nam obojętnych. Większość badań, prowadzonych w ramach psychologii poznawczej, dotyczy właśnie tego, jak ludzie formułują sądy probabilistyczne. Sądy wartościujące to te, w których obiektowi przypisana jest pewna wartość, np. estetyczna lub etyczna. W badaniach eksperymentalnych koncentrowano się przede wszystkim na poprawności wydawanych sądów, a raczej na jej braku. Opisano i skatalogowano liczne błędy w wydawaniu sądów, co skłania niektórych autorów do wniosku 0 niepełnej racjonalności człowieka w wydawaniu sądów. Z drugiej strony błąd lub odejście od optymalnego sposobu działania często informuje nas o poznaw czym mechanizmie poznawania świata. Dlatego koncentracja na błędach 1 tendencyjności w ocenie wydaje się uzasadnioną strategią badawczą.
550
Rozdział 12. Wydawanie sądów i podejmowanie decyzji
12.1.1. Tendencyjność w wydawaniu sądów Terminem tendencyjność (bias) określa się przypadłość umysłu ludzkiego po legającą na systematycznym odstępowaniu od idealnego wzorca rozumowania, co skutkuje regularnym popełnianiem błędu określonego rodzaju. Ten dencyjność nie jest więc równoznaczna z podatnością na błędy wszelkiego rodzaju, lecz ze skłonnością do popełniania błędów uniwersalnych i bardzo charakterystycznych (Nęcka, 1996). Wyobraźmy sobie, że ktoś otrzymuje zadanie odliczania wstecz co trzy wartości, poczynając od tysiąca, czyli: 1000, 997, 994, 991, 988, 985 itd. Zadanie jest dość trudne, wymaga sporej wydol ności pamięci roboczej, więc łatwo się pomylić. Jednak nasze błędy będą przypuszczalnie przypadkowe, pozbawione cechy systematyczności. O ten dencyjności można by mówić dopiero wtedy, gdyby większość ludzi syste matycznie myliła się np. co piątą operację odejmowania albo zawsze przy liczbie trzynaście (np. 913, 813). Tak oczywiście nie jest i dlatego stwierdzamy, że w zadaniu wymagającym odliczania wstecz zjawisko tendencyjności nie wy stępuje. Natomiast w przypadku wydawania sądów jest czymś bardzo po wszechnym. Mnóstwo faktów, świadczących o tym, że nasze sądy są tendencyjne, zgro madzili Amos Tversky i Daniel Kahneman (zob. Kahneman, Slovic, Tversky, 1982). Zdaniem tych autorów, wydając sądy, ludzie nie kierują się racjonalnymi przesłankami i ścisłymi regułami rozumowania, lecz tzw. heurystykami. Są to w ich rozumieniu - uproszczone zasady wnioskowania, umożliwiające szybkie sformułowanie sądu, któremu bardzo często towarzyszy subiektywne przeko nanie o słuszności. Najczęściej badano dwie heurystyki decydujące o tenden cyjności w wydawaniu sądów: heurystykę reprezentatywności i dostępności. Heurystyka reprezentatywności (Kahneman, Tversky, 1972) polega na kierowaniu się tym, czy dany obiekt lub zdarzenie jest, według nas, charakte rystycznym egzemplarzem szerszej klasy obiektów lub zdarzeń. Przypuśćmy, że gramy w totolotka, wybierając 6 liczb spośród 49. Który wynik losowania wyda nam się bardziej prawdopodobny: 12 3 4 5 6 czy 3 8 17 29 35 42? Większość ludzi odpowie, że pierwszy ciąg jest znacznie mniej prawdopodobny, a niektórzy będą twierdzić, że jest wręcz niemożliwy. W związku z tym prawie nikt nie obstawi w totolotku ciągu sześciu sąsiadujących liczb, w dodatku zaczynających się od jedności. W rzeczywistości każdy ciąg liczb jest w totolotku jednakowo mało prawdopodobny, ponieważ wylosowanie dowolnej liczby nie zmienia prawdopodobieństwa wylosowania dowolnej innej liczby1. Po prostu ciąg liczb 1, 2, 3, 4, 5, 6 nie wydaje nam się reprezentatywnym przykładem wyniku losowania w totolotku. Jako nietypowy w swojej klasie, wynik ten będzie systematycznie i powszechnie niedoszacowany. 1 Prawdopodobieństwo wylosowania w totolotku dowolnej kombinacji 6 liczb spośród 49 wynosi mniej niż 0,0000000001, czyli zdarza się rzadziej niż raz na miliard losowań.
12.1. Wydawanie sądów
551
Reprezentatywność danego obiektu oceniamy na podstawie dwóch prze słanek (Kahneman, Tversky, 1972). Po pierwsze, bierzemy pod uwagę podo bieństwo tego obiektu do innych egzemplarzy tej samej klasy. Obiekt re prezentatywny to taki, który charakteryzuje się dużą liczbą cech wspólnych dla wszystkich egzemplarzy kategorii. Większość wyników losowania w totolotku w niczym nie przypomina ciągu 1, 2, 3, 4, 5, 6, ponieważ wylosowane ciągi w przeważającej większości nie składają się z sąsiadujących liczb. Dlatego ciąg złożony z liczb sąsiadujących jest uważany za mało typowy, a zatem błędnie oceniany jako mniej prawdopodobny niż inne ciągi. Po drugie, w ocenie reprezentatywności bierzemy pod uwagę sposób, w jaki dany obiekt został pobrany ze zbioru lub „populacji” obiektów. Wylosowany ciąg sześciu liczb musi „wyglądać jak wylosowany”, w przeciwnym razie jest uważany za coś nietypowego dla swojej klasy lub wręcz za coś spoza klasy. Ciąg sąsiadujących liczb „nie wygląda” na pobrany w sposób losowy, a zatem jest szacowany jako mniej prawdopodobny niż inne ciągi. Heurystyka reprezentatywności prowadzi nas do szeregu tendencyjnych sądów, zwanych też złudzeniami poznawczymi (Nisbett i in., 1983). Jednym z przykładów jest złudzenie hazardzisty {gambler’s fallacy), inaczej: efekt Monte Carlo. Przypuśćmy, że bawimy się w grę hazardową, polegającą na przewidy waniu wyniku rzutu monetą. Jeśli uda nam się przewidzieć wynik dowolnego rzutu, wygrywamy zadeklarowaną sumę pieniędzy (np. 10 zł), jeśli nam się nie uda - tyle samo przegrywamy. Jeśli gra jest uczciwa, prawdopodobieństwo orła i reszki przyjmuje w każdej próbie identyczną wartość i wynosi 0,5. Załóżmy jednak, że pięć razy pod rząd pada reszka. W tej sytuacji jesteśmy skłonni postawić dość duże pieniądze na to, że w kolejnej próbie padnie orzeł. A gdyby reszka padła dziesięć razy pod rząd, nasza subiektywna pewność, iż w następnej próbie musi paść orzeł, byłaby jeszcze większa. To złudzenie, ponieważ jeśli dwa zdarzenia są niezależne, prawdopodobieństwo wystąpienia jednego z nich nie zależy od tego, jak często wcześniej miało miejsce zdarzenie alternatywne. Tymczasem ludzie nagminnie ulegają złudzeniu hazardzisty, przeceniając prawdopodobieństwo wyniku losowania, który od dawna nie wystąpił. Ten dencja tego rodzaju tłumaczy się tym, że ludzie kierują się heurystyką reprezentatywności. Wynik pięciu, a zwłaszcza dziesięciu rzutów monetą, gdzie za każdym razem padłaby reszka, jest tak mało typowy dla zdarzeń losowych, że wyzwala oczekiwanie przełamania tej serii. O ile bowiem prawdopodobieństwo pojedynczego zdarzenia binarnego (np. orzeł lub reszka) jest zawsze takie samo i wynosi 0,5, o tyle prawdopodobieństwo serii zdarzeń tego samego rodzaju (np. dziesięć razy pod rząd pada reszka) jest już minimalne, bo mniejsze niż 0,001. Ludzie oceniają prawdopodobieństwo wystąpienia pojedynczego zdarzenia na tle całej serii zdarzeń, i na tym właśnie polega błąd, jeśli zdarzenia są niezależne. Natomiast cała seria zdarzeń może w mniejszym lub większym stopniu przypominać typowy wynik losowania. Jeśli wynik „nie wygląda” na losowy, jego prawdopodobieństwo jest subiektywnie zaniżane, a przez to subiektywnemu zawyżeniu ulega wynik przeciwny. Stąd tendencja do ulega nia efektowi Monte Carlo, w dużym stopniu odpowiedzialna za rozwój uzależnienia od hazardu. Przekonanie, że w końcu „musi” paść wynik lo sowania, który do tej pory się nie zdarzył, prowadzi gracza do decyzji coraz
552
Rozdział 12. W ydaw anie sądów i podejm ow anie decyzji
mniej opartych na realnej ocenie ryzyka, a coraz bardziej - na subiektywnym poczuciu pewności wygranej2. Interesujące, że identyczne doświadczenie może prowadzić do przeciwnego wniosku, jeśli towarzyszy mu przekonanie o innym niż losowy sposobie uzyskania próbki zdarzeń. Jeśli gracz powziąłby podejrzenie, że rzuty monetą nie są uczciwe albo że moneta nie jest idealnie symetryczna, mógłby wydać sąd, że po dziesięciu reszkach w jedenastym rzucie też padnie reszka. Za takim sądem kryje się podejrzenie, że rzut monetą nie jest losowy. Ciąg dziesięciu reszek pod rząd staje się reprezentatywny dla szerszej klasy zdarzeń, mianowicie dla kategorii zdarzeń nielosowych, z góry zaplanowanych lub „oszukańczych”. Jeśli gramy w totalizatora piłkarskiego i wiemy, że drużyna A dziesięć razy pod rząd pokonała drużynę B, nie skłaniamy się do wniosku, że za jedenastym razem musi wreszcie wygrać drużyna B. Przeciwnie, szanse drużyny A są oceniane znacznie wyżej, ponieważ wygrana dziesięć razy pod rząd sugeruje, że drużyna A jest po prostu lepsza. Tutaj też mamy do czynienia z reprezentatywnością, tyle tylko, że odnoszącą się do zdarzeń nielosowych. Wiemy, że wynik losowania musi „wyglądać na losowy”, jeśli więc na taki nie wygląda, zdarzenie oceniane jest jako pobrane z próbki w inny, nielosowy sposób. Charakterystyczne cechy próbek nielosowych wyglądają inaczej niż charakterystyczne próbki zdarzeń losowych. Dlatego złudzenie hazardzisty ma miejsce tylko wtedy, gdy wyniki wcześniejszych losowań nie są uznane za reprezentatywne dla zdarzeń lo sowych, a gracz mimo wszystko nie pozbywa się przekonania, że uczestniczy w uczciwej loterii. Gdy takie przekonanie utraci, zmienia zasadniczo swoje sądy, oceny i decyzje. Zwykle te nowe sądy są również tendencyjne, ponieważ w każdym przypadku u podstaw sądu leży wykorzystanie heurystyki reprezen tatywności. Różna jest jedynie ocena tego, w jaki sposób pobrano próbkę (losowo, systematycznie, oszukańczo itp.), a także ocena, co jest reprezenta tywne dla określonej kategorii zdarzeń. Innym przykładem tendencyjności wynikającej ze stosowania heurystyki reprezentatywności jest złudzenie koniunkcji (conjunction fallacy). Polega ono na zawyżaniu prawdopodobieństwa posiadania przez obiekt pewnej cechy, jeśli występuje ona z inną cechą. Tversky i Kahneman (1983) badali to zjawisko z wy korzystaniem zadania zwanego „problemem Lindy” (paradygmat 12.1). Okazało się, że prawdopodobieństwo posiadania przez hipotetyczną osobę imieniem Linda dwóch cech łącznie było szacowane jako wyższe niż prawdopodobieństwo posiadania przez nią tylko jednej z tych cech. Inny przykład to zawyżanie szansy sukcesu znanych tenisistów w turniejach wielkoszlemowych. Okazuje się, że ludzie oceniają szanse wygrania przez znanego tenisistę turnieju w Wimbledonie i turnieju Rolland Garros w Paryżu jako wyższe niż szanse wygrania tegoż tenisisty tylko w jednym z tych turniejów (Tversky, Kahneman, 1982). Z rachunku prawdopodobieństwa wynika, że szansa łącznego wystąpienia dwóch zdarzeń nie może być większa niż szansa wystąpienia któregokolwiek z tych zdarzeń osobno. Jeśli zdarzenia są niezależne, możliwość ich łącznego wystąpienia, czyli prawdopodobieństwo koniunkcji, jest równe iloczynowi prawdopodobieństw. Prawdopodobieństwo oceniamy na skali 0-1, a iloczyn 2 Literacki obraz tego zjawiska daje Fiodor Dostojewski w powieści Gracz.
12.1. Wydawanie sądów
553
Paradygmat 12.1
Problem Lindy Uczestnicy eksperymentów Tversky’ego i Kahnemana (1983) otrzymywali opis hipotetycznej osoby imieniem Linda. Linda ma 31 lat. Jest niezamężna, wygadana i bardzo inteligentna. Ukończyła studia filozoficzne. Jako studentka głęboko angażowała się w problemy dyskryminacji i sprawiedliwości społecznej. Uczestniczyła też w demonstracjach przeciwko broni nuklearnej.
Następnie proszono osoby badane o ocenę prawdopodobieństwa kilku cech opi sujących Lindę. Ocenę 1 trzeba było przyznać opcji najbardziej prawdopodobnej, a ocenę 8 - opcji najmniej prawdopodobnej. Linda jest nauczycielką w szkole podstawowej. Linda pracuje w księgarni i chodzi na zajęcia z yogi. Linda aktywnie udziela się w ruchu feministycznym. Linda opiekuje się pacjentami psychiatrycznymi jako pracownik społeczny. Linda jest członkinią Ligi Kobiet na rzecz Udziału w Wyborach. Linda jest urzędniczką w banku. Linda jest agentem ubezpieczeniowym. Linda jest urzędniczką w banku i aktywnie udziela się w ruchu feministycznym.
Osobom badanym kazano w gruncie rzeczy zgadywać na temat Lindy na pod stawie lakonicznego opisu tej osoby. Rzeczywistym celem autorów było porównanie szacunków prawdopodobieństwa ostatniej opcji, która zawiera koniunkcję cech (urzędniczka w banku i feministka), z opcją trzecią od końca, która opisuje pojedyn czą cechę (urzędniczka w banku). Przebadano trzy grupy uczestników różniących się poziomem kompetencji w zakresie statystyki i teorii prawdopodobieństwa. Okazało się, że badani oceniali prawdopodobieństwo koniunkcji cech (Linda jest urzędniczką w banku i feministką) jako znacznie wyższe niż prawdopodobieństwo jednej ze składowych tej koniunkcji (Linda jest urzędniczką w banku). Dotyczyło to w równej mierze osób statystycznie „naiwnych”, średnio zaawansowanych, jak też bardzo biegłych we wnioskowaniu statystycznym. Autorzy argumentują, że badani ulegli sugestii, wynikającej z użycia heurystyki reprezentatywności. Wstępny opis Lindy i jej aktywności społecznej w okresie studiów czynił ją typową przedstawicielką grupy młodych, wykształconych i niezależnych kobiet. Zgodnie ze stereotypem, takie kobiety często wyznają poglądy feministyczne lub bliskie feminizmowi. Zaangażo wanie w kwestii równych szans i udział w demonstracjach pokojowych dodatkowo skłaniał do Wniosku, że Linda „musi” mieć coś wspólnego z ruchem feministycznym. Stąd zawyżone szacowanie prawdopodobieństwa, że Linda pracuje w banku i jest feministką, choć przecież Linda mogłaby być feministką, nie pracując w banku, mogłaby też pracować w banku, nie będąc feministką. Prawdopodobieństwo koniunkcji nie może być wyższe niż prawdopodobieństwo zdarzeń składających się na koniunkcję, dlatego mamy tu do czynienia z tendencyjnością oceny.
wartości mniejszych niż 0 zawsze daje wynik niższy niż poszczególne czynniki iloczynu. Na przykład, jeśli mamy dwa zdarzenia prawdopodobne na poziomie 0,5 (np. orzeł lub reszka w rzucie monetą), prawdopodobieństwo wylosowania dwóch orłów pod rząd wynosi 0,5 x 0,5 = 0,25. Jeśli zdarzenia są zależne,
554
Rozdział 12. W ydaw anie sądów i podejm ow anie decyzji
prawdopodobieństwo koniunkcji jest wyższe niż iloczyn prawdopodobieństw zdarzeń pojedynczych, nigdy jednak nie może przekroczyć wartości odnoszącej się do prawdopodobieństwa któregokolwiek z tych zdarzeń (w praktyce nie może być wyższe niż prawdopodobieństwo zdarzenia bardziej prawdopodob nego). Aby to ocenić, nie trzeba posługiwać się matematycznym aparatem rachunku prawdopodobieństwa - wystarczy rzetelna analiza sytuacji. Przy puśćmy, że Adam Małysz jest rewelacyjnie przygotowany do sezonu. Z tej przesłanki może wynikać przypuszczenie, że wygra on jeden z konkursów Turnieju Czterech Skoczni, dwa konkursy, trzy konkursy lub wszystkie cztery konkursy. Złudzenie koniunkcji polega na tym, że oceniamy szanse Małysza na wygranie wszystkich czterech konkursów jako wyższe niż szanse wygrania trzech konkursów, a szanse wygrania trzech - wyżej niż szanse wygrania dwóch itd. Ulegamy temu złudzeniu, choć wiemy, że szanse wygrania choćby jednego konkursu w silnej konkurencji są niewielkie, a co dopiero mówić o szansie wygrania wszystkich czterech zawodów. Jeśli jednak wiemy, że Małysz jest w doskonałej formie (albo mamy taką nadzieję), to jego zwycięstwo w konkretnym konkursie skoków narciarskich jest reprezentatywnym przy kładem szerszej klasy zdarzeń, mianowicie takich, że w ogóle wygrywa on konkursy skoków. W takim razie szansa wygrania przez niego całej serii zawodów wydaje nam się wyższa, niż wynikałoby to z racjonalnego rozumo wania. Złudzenie może też wynikać z tego, że poszczególne elementy koniunkcji postrzegane są jako logiczny ciąg zdarzeń powiązanych relacjami przyczynowo-skutkowymi. Mówimy wtedy, że zdarzenia te tworzą wiarygodny scenariusz, charakterystyczny dla szerszej klasy scenariuszy tego samego typu. W badaniach Tversky’ego i Kahnemana (1983), prowadzonych w 1981 r., pytano ekspertów w zakresie futurologii o ocenę prawdopodobieństwa następujących zdarzeń: 1. Związek Sowiecki dokonuje inwazji na Polskę w celu stłumienia ruchu „Soli darności”. 2. USA zrywają stosunki dyplomatyczne ze Związkiem Sowieckim. 3. Związek Sowiecki dokonuje inwazji na Polskę w celu stłumienia ruchu „Solidar ności” i USA zrywają stosunki dyplomatyczne ze Związkiem Sowieckim. Łatwo zauważyć, że zdarzenie 3. jest koniunkcją zdarzeń 1. i 2. Dlatego prawdopodobieństwo zdarzenia 3. nie może być wyższe od prawdopodobień stwa zarówno zdarzenia 1., jak i zdarzenia 2. Można sobie wyobrazić inwazję bez zerwania stosunków dyplomatycznych, teoretycznie możliwe jest też zerwanie stosunków dyplomatycznych z powodów innych niż inwazja na Polskę. Tymczasem badani eksperci-futurolodzy oceniali prawdopodobieństwo zdarzenia 3. jako wyższe niż prawdopodobieństwo każdego ze zdarzeń skła dowych. Wprawdzie wszystkie trzy możliwości oceniano jako prawdopodobne w stopniu zaledwie minimalnym, jednak złudzenie koniunkcji wyraźnie się zaznaczyło. Autorzy wyjaśniają je tym, że scenariusz „inwazja, potem zerwanie stosunków” stanowi dobry, reprezentatywny przykład szerszej klasy zjawisk, mianowicie sytuacji kryzysowych w stosunkach międzynarodowych. Samo zer wanie stosunków dyplomatycznych wydaje się mało prawdopodobne, ale zer wanie połączone z wcześniejszą inwazją na inny kraj wydaje się nieco bardziej
12.1. W ydaw anie sądów
555
prawdopodobne. Być może zamiast oceniać prawdopodobieństwo koniunkcji ludzie oceniają prawdopodobieństwo zdarzenia B, pod warunkiem że wcześniej wystąpi zdarzenie A (Nęcka, 1989). Coś, co formalnie rzecz biorąc nadal jest koniunkcją (A i B), jest mimowolnie przerabiane na implikację (jeśli A, to B), po czym ocenie podlega już tylko prawdopodobieństwo następnika implikacji (zdarzenie B). Zapewne w ten sam sposób można wytłumaczyć skłonność do przeceniania szans sportowców. Pozornie ocenia się szanse Małysza na wy granie czterech konkursów, a w gruncie rzeczy ocenie podlega szansa wygrania czwartego konkursu, pod warunkiem że wcześniej Małysz wygra trzy konkursy pod rząd. Druga powszechnie stosowana reguła wydawania sądów to heurystyka dostępności. Polega ona na kierowaniu się tymi przesłankami lub elementami wiedzy, które są dostępne i łatwe do wydobycia z pamięci trwalej, a ignorowaniu tych, które są trudno dostępne. Zjawisko to najłatwiej zademonstrować na przykładzie prostego pytania o częstość występowania określonych kombinacji liter (Tversky, Kahneman, 1983). Przypuśćmy, że ktoś nas poprosi o oszaco wanie częstości występowania litery K na przedostatnim miejscu w polskich nazwiskach. Większość z nas nie ma na ten temat żadnej wiedzy, więc konieczne będzie zgadywanie. Interesujące jest to, że szacowana częstość występowania litery K na przedostatnim miejscu jest niższa niż szacowana częstość wystę powania w polskich nazwiskach końcówki SKI. A przecież zbiór wszystkich końcówek SKI jest podzbiorem szerszego zbioru końcówek _K_. Litera K na przedostatnim miejscu pojawia się w końcówkach SKI, ale również w licznych końcówkach innego rodzaju (np. ŃKA, IKA). Jednak nazwiska z końcówką SKI, jako typowe dla Polaków, są natychmiast wydobywane z pamięci, podczas gdy nazwiska typu BAŃKA lub MIKA, jako mniej typowe, są wydobywane z trudem i powoli. W rezultacie końcówki SKI są przeszacowane co do swej częstości, a końcówki _K_ okazują się niedoszacowane. Heurystyka dostępności jest w pewnym sensie odwrotnością heurystyki reprezentatywności. Ta ostatnia polega na tym, że dysponując konkretnym przypadkiem (np. osoba o imieniu Linda), odwołujemy się do szerszej klasy zjawisk lub obiektów (np. feministki), po czym przeceniamy prawdopodobień stwo wystąpienia tego, co uważamy za charakterystyczne dla całej tej kategorii. W przypadku heurystyki dostępności dysponujemy klasą ogólną (np. końcówki SKI), po czym szukamy w pamięci konkretnych przykładów kategorii. Jeśli je znajdujemy szybko i bez wysiłku, przeceniamy częstość występowania elemen tów tej kategorii, a jeśli znajdywanie przykładów idzie nam wolno i z wysiłkiem, mamy tendencję do niedoszacowania częstości ich występowania. Mimo odmiennego mechanizmu poznawczego, obie heurystyki mogą prowadzić do podobnych skutków, np. do złudzenia koniunkcji. To ostatnie może być wy nikiem tego, że z dwóch zdarzeń co najmniej jedno jest reprezentatywne dla szerszej kategorii, albo tego, że łatwiej nam wydobyć z pamięci przykłady występowania dwóch zdarzeń w tym samym czasie lub w relacji przyczynowo-skutkowej niż przykłady występowania każdego z tych zdarzeń oddzielnie. Heurystyka dostępności prowadzi do szeregu błędnych i tendencyjnych sądów. Przede wszystkim odpowiada za efekt świeżości w ocenie prawdopodo bieństwa zdarzeń. Z badań nad pamięcią wiemy, że informacje odebrane niedawno są lepiej pamiętane od tych, które odebrano wcześniej. Jeśli do tych
556
Rozdział 12. W ydaw anie sądów i podejm ow anie decyzji
niedawno odebranych informacji należą wiadomości o wypadkach, katastrofach lub zamachach terrorystycznych, rodzi się tendencja do przeceniania prawdo podobieństwa wystąpienia takich dramatycznych wydarzeń. Media atakują nas codziennie sporą dawką wiadomości o wstrząsających wydarzeniach, przez co trudno nam je wymazać z pamięci. Stwierdzono, że w 1985 r. w USA prawdo podobieństwo utopienia się we własnej wannie było większe niż prawdo podobieństwo śmierci w wyniku zamachu terrorystycznego (Matlin, 1994). Mimo to ludzie bardziej boją się zamachów niż kąpieli we własnej wannie, oczywiście przeszacowując możliwość śmierci w wyniku zamachu. Tendencyj ność tego rodzaju dotyczy nie tylko laików, lecz również ekspertów. Ci ostatni wprawdzie w mniejszym stopniu ulegają sugestii ze strony mediów, za to w większym stopniu kierują się własnym doświadczeniem. Znany jest przy padek lekarza, który powstrzymał się od zastosowania potrzebnej pacjentowi terapii, ponieważ pamiętał, że niedawno inny pacjent zmarł po jej zastosowaniu. Poprzedni pacjent prawdopodobnie zmarł nie w wyniku terapii, lecz mimo jej zastosowania, a jednak świeżo utrwalony w pamięci przypadek medyczny skutecznie powstrzymał eksperta od racjonalnej decyzji (Matlin, 1994). Wiele sądów tego rodzaju nosi znamiona myślenia magicznego. Na przykład słynny trener reprezentacji Polski w piłce nożnej zawsze przychodził na ważne mecze nieogolony, bo twierdził, że to mu przynosi szczęście. Przypuszczalnie zbyt dobrze pamiętał jakiś mecz przegrany po starannym goleniu. Heurystyka dostępności odpowiada też za złudzenie osobistego doświad czenia. Statystyki na temat szkodliwości palenia nie przekonają kogoś, kto „miał dziadka, który palił dwie paczki dziennie i dożył 90 lat”. Podobnie statystyki wypadkowości różnych modeli samochodów, z których wynika, że samochody marki A są bezpieczniejsze od samochodów marki B, nie przekonają kogoś, kto ostatnio widział w rowie rozbity wóz marki A. Osobiste doświadczenie, zapisane w pamięci autobiograficznej, wspomagane emocjami i licznymi, dobrze pa miętanymi szczegółami, jest łatwo dostępne, w przeciwieństwie do suchych statystyk, które nawet gdyby były nam znane, nie mogą konkurować z osobiście zapamiętanymi epizodami. Złudzenie osobistego doświadczenia ułatwia two rzenie się uprzedzeń, np. etnicznych. Jeśli mieszkaniec Londynu zobaczy wcześnie rano na ulicy grupę Polaków raczących się tanim winem, może być oporny na argumenty, że Polacy bywają różni, a niechlujstwo i pijaństwo zdarza się też w innych nacjach. Na podstawie osobistego doświadczenia mieszkaniec Londynu będzie z uprzedzeniem, czyli wstępnie powziętym sądem, podchodził do innych napotkanych Polaków, a nawet do całej grupy etnicznej. Heurystyka dostępności odpowiada też za szczególny rodzaj tendencyj ności w wydawaniu sądów, przewrotnie zwany prawem małych liczb. Wiemy, że niektóre prawidłowości ujawniają się dopiero przy dużej liczbie przypadków. Na przykład dopiero przy wielu tysiącach powtórzonych losowań w totolotku częstość występowania każdej z 49 liczb będzie taka sama. Mniejsza liczba losowań może błędnie sugerować, że niektóre liczby wypadają w losowaniu częściej lub rzadziej od innych. Podobnie dopiero duża liczba osób badanych pozwala stwierdzić określone tendencje, np. korelacje między zmiennymi lub różnice między różnymi grupami osób. Dlatego w metodologii i statystyce obo wiązuje prawo wielkich liczb, a uprawnione wnioski są możliwe, pod warunkiem że próbka pobrana z populacji jest nie tylko reprezentatywna, ale
12.1. Wydawanie sądów
557
też wystarczająco liczna. Psychologicznie rzecz biorąc, prawo wielkich liczb jest powszechnie ignorowane. Ludzie chętnie wyciągają wnioski na podstawie nader skąpej liczby przypadków, pod warunkiem że są to przypadki osobiście przez nich doświadczone i zapamiętane, a zatem łatwo dostępne. W szczególności każdy z nas ma tendencję do ferowania ogólnych sądów o ludziach na podstawie stosunkowo nielicznej i zupełnie niereprezentatywnej „próbki badanej” pod nazwą „moi znajomi”. Wiadomo, że stosunki towarzyskie utrzymują ludzie w jakiś sposób do siebie podobni pod względem upodobań, poglądów i pre ferencji politycznych. Jeśli więc formułujemy ogólne sądy na podstawie próbki „moi znajomi”, na pewno będziemy skłonni błędnie oceniać częstość wystę powania określonych postaw i zachowań. W literaturze opisano wiele innych heurystyk (Kahneman, Slovic, Tversky, 1982). Na przykład heurystyka zakotwiczenia i dopasowania (anchoring and adjustment) prowadzi nas do błędnej oceny wielkości liczbowych. Tversky i Kahneman (1982) prosili uczniów szkoły średniej o ocenę wielkości iloczynu, przedstawionego w postaci dwóch ciągów: A. B.
8x7x6x5x4x3x2xl Ix2x3x4x5x6x7x8.
Uczniowie mieli dokonać oceny w pięć sekund, nie mogli więc wykonać obliczeń. W przypadku szeregu A mediana z wszystkich ocen wyniosła 2,250, a w przypadku szeregu B - tylko 512. Ponieważ oba szeregi są matematycznie ekwiwalentne, oceny teoretycznie nie powinny się różnić. Tymczasem mentalne „zakotwiczenie” na większych wartościach liczbowych (8, 7 itd.) prowadzi do podwyższenia oceny, podczas gdy „zakotwiczenie” na małych wartościach (1, 2 itd.) prowadzi do zaniżenia oceny. W rzeczywistości wszyscy badani drastycznie zaniżali ocenę, ponieważ prawidłowa odpowiedź brzmi: 40 320. Heurystyka zakotwiczenia i dopasowania odpowiada za szereg błędów w ocenie, w szcze gólności za niedoszacowanie lub przeszacowanie wartości statystycznych.
12.1.2. Ignorowanie proporcji podstawowej Wiele błędów w ocenie prawdopodobieństwa wynika z ignorowania proporcji podstawowej (base rate), określającej ogólną częstość występowania zdarzenia lub cechy w populacji. Przypuśćmy, że pewien mężczyzna wykonał test na obecność wirusa HIV i otrzymał wynik pozytywny. Wiadomo, że w Polsce nosicielem wirusa HIV jest co piętnasta osoba na 10 000 heteroseksualnych mężczyzn3. Inaczej mówiąc, prawdopodobieństwa znalezienia się w grupie nosicieli wirusa wynosi 0,0015. Wiadomo też, że czułość testu na obecność HIV jest dość duża, ponieważ test daje pozytywny wynik w 99% przypadków rzeczywistej obecności wirusa. Oznacza to, że prawdopodobieństwo posiadania wirusa przy pozytywnym wyniku testu wynosi 0,99. Co więcej, wiadomo, że prawdopodobieństwo nieposiadania wirusa przy pozytywnym wyniku testu wy nosi 0,10. Jest to prawdopodobieństwo fałszywego alarmu, swoisty margines bezpieczeństwa wynikający z założenia, że lepiej stwierdzić wynik pozytywny 3 Dane niedokładne, wprowadzone w celach poglądowych.
558
Rozdział 12. W ydawanie sądów i podejm ow anie decyzji
u osobnika wolnego od wirusa (i powtórzyć badanie), niż przeoczyć wirusa u rzeczywiście zarażonego. Mając te dane do dyspozycji, jak ocenimy praw dopodobieństwo, że osobnik, u którego stwierdzono pozytywny wynik testu, rzeczywiście jest nosicielem HIV? Prawidłowa ocena prawdopodobieństwa wymaga w tym przypadku wy korzystania reguły Bayesa, danej wzorem: p(HIV/test+ ) = P(HIV) • p(test + /HIV+) p(m v/iesi+j p(t e s t + / HIV_ ) . p(test+/HIV+)
Czytamy: p(HIV/test+) prawdopodobieństwo, że ma się wirusa, jeśli wynik testu jest pozytywny; p(HIV) prawdopodobieństwo zarażenia się wirusem HIV (0,0015); p(test+ /H IV + ) prawdopodobieństwo, że test da wynik pozytywny, jeśli w organizmie jest wirus HIV (0,99); p(test+/H IV -) prawdopodobieństwo, że test da wynik pozytywny, jeśli w organizmie nie ma wirusa HIV (0,10). Podstawiając dane do wzoru, otrzymujemy wynik: p(HIV/test+) =
0 0015■ 0 99 q 1Q o 99 = °>015 - ^
Odpowiedź brzmi: jeśli u kogoś stwierdzono pozytywny wynik testu na obecność HIV, można wnioskować z pewnością równą 1,5%, że pacjent rzeczywiście jest nosicielem wirusa. Półtora procent to bardzo niewiele. Wystar czy uświadomić sobie, że w badaniach psychologicznych prawdopodobieństwo trzykrotnie wyższe, bo mniejsze niż 5% (p < 0,05) jest ciągle wystarczającą podstawą do przyjęcia hipotezy zerowej o braku efektu (korelacji, różnicy między średnimi itd.). Inaczej oczywiście podchodzi się do problemu w przy padku zagrożenia zdrowia i życia niż w badaniach naukowych, a więc nawet zagrożenie na poziomie 1,5% powinno być przesłanką dla powtórzenia badań. W każdym razie zagrożenie jest obiektywnie niewielkie, choć prawie każdy z nas w obliczu pozytywnego wyniku testu na obecność wirusa HIV byłby subiektywnie przekonany, że jest nosicielem. Ignorowanie proporcji podstawowej jest przyczyną licznych błędów w oce nie, przede wszystkim w zakresie szacowania prawdopodobieństwa zdarzeń. Szczególnie groźne są błędy popełniane przez ekspertów, np. lekarzy (Eddy, 1982; Hoffrage, Gigerenzer, 1998), ponieważ od ekspertów wymaga się szcze gólnie racjonalnego podejścia do problemu. Laik może się gruntownie mylić w ocenie zagrożeń, bo w większości wypadków nic z tej oceny nie wynika poza indywidualnym samopoczuciem. Natomiast od oceny eksperta zależy los innych ludzi. Zwróćmy uwagę, że ignorowanie proporcji podstawowej może prowadzić nie tylko do przeceniania prawdopodobieństwa zagrożenia, ale również do jego niedoszacowania. Na przykład lekarz, który sądzi, że gruźlica już dawno prze stała być problemem społecznym, może zignorować wczesne sygnały ostrzega wcze, świadczące o pojawieniu się tej choroby. Wiele chorób zakaźnych, daw niej druzgocących, zdołano opanować, więc proporcja podstawowa jest w ich przypadku oceniana jako bardzo niska. Tymczasem w diagnozie zawsze trzeba wziąć pod uwagę indywidualną podatność pacjenta, nie mówiąc o możliwości nawrotu epidemii.
12.1. Wydawanie sądów
559
Należy teraz zadać pytanie o przyczynę tej ułomności ludzkiego umysłu. Wydaje się, że problem tkwi w nieprzystosowaniu naszego aparatu pozna wczego do operowania kategorią prawdopodobieństwa. Ludzkość wymyśliła rachunek prawdopodobieństwa na tyle niedawno, że podstawowe pojęcia i re guły w tej dziedzinie nie zdążyły się jeszcze upowszechnić. Poza tym większości z nas brakuje wiedzy na temat reguły Bayesa, nie mówiąc o umiejętności dokonywania operacji rachunkowych z wykorzystaniem tego wzoru. Wydaje się jednak, że istnieje rozwiązanie tego problemu, mianowicie zastąpienie kategorii prawdopodobieństwa kategorią liczebności. Zdaniem Gerda Gigerenzera (Gigerenzer, Hoffrage, 1995), ludzie nieumiejętnie operują prawdopodobień stwami, za to nieźle radzą sobie z liczbami naturalnymi. Stwierdzenie, że coś jest prawdopodobne na poziomie 0,0015, znaczy dokładnie tyle, że to coś (np. choroba lub inne zagrożenie) zdarza się 15 razy na 10 000 przypadków. Co więcej, z faktu, że coś zdarza się 15 razy na 10 000 przypadków, wynika, że brak tego czegoś (np. brak choroby) zdarza się 9985 razy na 10 000 przypadków. Zwłaszcza ta ostatnia informacja jest istotna dla realnej oceny prawdopodo bieństwa, ponieważ naocznie pokazuje nam, czym jest proporcja podstawowa i dlaczego jej ignorowanie prowadzi do błędów w wydawaniu sądów. Operowanie liczbami naturalnymi zamiast prawdopodobieństwami daje szansę na uniknięcie błędów poprzez wykorzystanie reguły Bayesa „z ludzką twarzą” (ramka 12.1.). Ramka 12.1
Reguła Bayesa „z ludzką twarzą” Zdaniem Gerda Gigerenzera (Gigerenzer, Hoffrage, 1995; Hoffrage, Gigerenzer, 1998), ludzi można nauczyć używania reguły Bayesa bez konieczności stosowania wzorów i innych elementów aparatu matematycznego. Trzeba w tym celu operować obrazowymi przedstawieniami liczebności zdarzeń, a zrezygnować z używania wartości prawdopodobieństwa, ocenianego na skali 0-1. Wynik procesu wydawa nia sądu będzie wówczas mniej precyzyjny, ale wystarczająco dokładny, aby realnie ocenić szans lub zagrożeń. W jaki sposób można ocenić stopień zagrożenia wirusem HIV? Wiemy, że 15 mężczyzn na 10 000 jest zarażonych wirusem. Test na obecność wirusa wykaże wynik pozytywny praktycznie u każdego z zarażonych, bo czułość testu wynosi 0,99, a 99% z 15 to prawie 15 (dokładnie: 14,85). Weźmy teraz pozostałych 9985 spośród naszej hipotetycznej próbki 10 000 mężczyzn, którzy nie mają wirusa. Test na obecność wirusa wykaże wynik pozytywny aż u 999 z nich, ponieważ poziom bezpieczeństwa testu ustalono na 0,10. Oznacza to, że u co dziesiątego zdrowego mężczyzny wynik testu i tak będzie pozytywny, a co dziesiąty z liczby 9985 to mniej więcej 999 (dokładnie: 998 i pół osoby). Wiemy już teraz, że test da wynik pozytywny u 1014 mężczyzn, mianowicie u 15 zarażonych i 999 niezarażonych (15 + 999 = 1014). Inaczej mówiąc, test da wynik pozytywny w przypadku 1014 mężczyzn, z których tylko 15 rzeczywiście ma wirusa. Wynika zatem, że prawdziwe zagrożenie wirusem przy pozytywnym wyniku testu jest jak 15 do 1014, czyli mniej niż 15 do 1000. Można więc spokojnie uznać, że prawdopodobieństwo posiadania wirusa wynosi mniej niż 1,5%. Jest to wynik
560
Rozdział 12. W ydawanie sądów i podejm ow anie decyzji
nieco mniej precyzyjny niż ten, który można osiągnąć za pomocą aparatu matematycznego, ale wystarczająco precyzyjny, jeśli chodzi o praktyczną użytecz ność. Wykazuje przy tym tę przewagę, że uzyskano go bez jakiegokolwiek wzoru matematycznego. Stosując podobną procedurę, Gigerenzer i Hoffrage (1995) wykazali, że możliwy jest znaczący przyrost sądów uwzględniających proporcję podstawową po zastosowaniu liczb naturalnych. W eksperymencie wzięło udział 60 studen tów, którzy rozwiązywali 15 problemów wymagających uwzględnienia proporcji podstawowej i reguły Bayesa. Były to zadania polegające na ocenie ryzyka raka piersi u kobiet, ryzyka urodzenia dziecka z wadą genetyczną itp. Zadania te były prezentowane w postaci probabilistycznej lub liczebnościowej. W pierw szym przypadku podawano potrzebne dane w postaci prawdopodobieństwa (np. ryzyko wystąpienia raka piersi u kobiet wynosi 0,01), w drugim przypadku te same dane przedstawiano obrazowo jako częstość występowania danego przypadku (np. rak piersi występuje u jednej kobiety na 100). Okazało się, że zadania podawane w formacie probabilistycznym prowadziły do nagminnego lekceważenia proporcji podstawowej: tylko 16% rozwiązań spełniało kryteria reguły Bayesa. Natomiast w przypadku zadań podawanych w formacie liczb naturalnych odsetek rozwiązań spełniających wymagania reguły Bayesa wzrastał do 46%. I chociaż w drugim przypadku ponad połowa rozwiązań wciąż świadczyła 0 ignorowaniu proporcji podstawowej, udało się wykazać prawie trzykrotny wzrost liczby rozwiązań prawidłowych. W podobnym badaniu z udziałem 48 lekarzy z co najmniej 14-letnią praktyką Hoffrage i Gigerenzer (1998) stwierdzili 10% popraw nych rozwiązań w przypadku zadań podawanych w formacie probabilistycznym, a 46% - w przypadku zadań operujących pojęciem częstości. Wyniki te skłoniły Gigerenzera i jego współpracowników do rozwijania programów nauczania poprawnego wnioskowania, np. z wykorzystaniem stosow nych programów komputerowych. Z teoretycznego punktu widzenia, wyniki te są interesującą ilustracją zjawiska polegającego na zasadniczej zmianie poziomu trudności zadania pod wpływem zmiany jego poznawczej reprezentacji. To samo zadanie może być reprezentowane w sposób prowokujący do błędu lub tendencyjnej oceny albo też w sposób prowadzący do oceny bardziej realistycznej 1 uwzględniającej ważne przesłanki (w tym przypadku proporcję podstawową). Wyniki te są też ważnym argumentem w sporze o ekologiczną trafność procedur stosowanych w eksperymentalnej psychologii poznawczej. Chociaż procedury Gigerenzera i Hoffrage były ciągle zadaniami laboratoryjnymi, ich format okazał się bardziej zbliżony do sytuacji, z jakimi spotykamy się w życiu codziennym. Radykalni krytycy badań laboratoryjnych uznaliby, że sporo tzw. tendencji w ocenie zdarzeń to nic innego, jak artefakty wywołane specyficzną procedurą eksperymentalną. Mniej radykalni krytycy zwróciliby uwagę, że błędne i tendencyjne oceny pojawiają się w większości odpowiedzi nawet po zmianie formatu zadania. Wydaje się więc, że nie można tutaj mówić o artefaktach, a jedynie o tym, iż niektóre procedury laboratoryjne nad błędami w ocenie same prowadzą do błędnych ocen, mianowicie do zawyżania częstości, z jaką ludzie wydają sądy tendencyjne.
12.1. Wydawanie sądów
561
12.1.3. Wady i zalety prostych heurystyk Badania Tversky’ego i Kahnemana, kontynuowane przez innych badaczy, wzbu dziły wiele krytycznych uwag, stawiających pod znakiem zapytania rzetelność uzyskanych wyników. Przede wszystkim krytykowano sposób zadawania pytań i formułowania zadań. Na przykład złudzenie koniunkcji może być artefaktem, wynikającym ze swoistej formy stosowanych zadań. Przypuśćmy, że z dwóch cech, A i B, tylko cecha B jest zgodna ze stereotypem pewnej kategorii ludzi, a zatem uznana za reprezentatywną dla tej kategorii. Oceniając prawdopodo bieństwo wystąpienia koniunkcji A i B, w gruncie rzeczy oceniamy prawdopo dobieństwo wystąpienia cechy B, podczas gdy cecha A jest traktowana jako nic nieznaczący dodatek. W przypadku problemu Lindy (paradygmat 12.1) decy dujące wydaje się przypuszczenie, że Linda jest feministką, a dostarczone informacje skłaniają do takiego wniosku, ponieważ odwołują się do stereotypu. To, czy Linda pracuje w banku, nie ma już najmniejszego znaczenia dla stereo typu feministki. Jednak sztuczne „przyklejenie” tej cechy do feminizmu mogło skłonić osoby badane do zawyżania oceny prawdopodobieństwa, co formalnie rzecz biorąc było koniunkcją (feministka pracująca w banku), ale od strony psychologicznej było zdarzeniem pojedynczym (feministka). Zadanie, które po zornie polegało na ocenie prawdopodobieństwa koniunkcji, w istocie przerodziło się w ocenę prawdopodobieństwa pojedynczej cechy zgodnej ze stereotypem. Aby wykluczyć taką możliwość, należałoby porównać ocenę koniunkcji „pracuje w banku i feministka” z pojedynczą cechą „feministka”, a nie z cechą „pracuje w banku”. W badaniach Tversky’ego i Kahnemana niestety tego nie zrobiono. W innych przypadkach osoby badane mogły „po cichu” przerabiać ko niunkcję na implikację, oceniając np. prawdopodobieństwo zerwania stosunków dyplomatycznych, pod warunkiem, że wcześniej nastąpi inwazja wojskowa. Ukryte wymagania sytuacji eksperymentalnej mogły mieć duży wpływ na sposób rozumienia instrukcji, a tym samym na dokonywanie ocen. Ignorowanie wpływu utajonych procesów poznawczej manipulacji strukturą zadania mogło prowa dzić autorów tych badań na manowce. Szukając odpowiedzi, czy tak było w istocie, przeprowadzono specjalne badanie (Nęcka, 1989). Przebadano sze snaście grup, którym przedstawiono inny typ zadań poznawczych. Różne grupy oceniały praw dopodobieństw o pojedynczych zdarzeń (A, B), praw dopodobieństwo ich koniunkcji (A i B) albo prawdopodobieństwo implikacji (jeśli A to B). Okazało się, że w połowie przypadków następnik implikacji (wydarzenie B) oceniano jako równie prawdopodobne samej implikacji (jeśli A to B), zaś w połowie przypadków - jako mniej prawdopodobne. Co więcej, w siedmiu zadaniach na osiem prawdopodobieństwo koniunkcji (A i B) oceniano jako równe prawdopodobieństwu implikacji (jeśli A to B), a tylko w jednym przypadku na osiem koniunkcję oceniano jako mniej prawdopodobną niż implikacja. Wyniki tych badań sugerują, że zadania „oficjalnie” polegające na ocenie szans wystąpienia koniunkcji mogą być implicite przerabiane na zadania wymagające oceny prawdopodobieństwa implikacji. W związku z tym pojawia się uzasadniona wątpliwość, czy w niektórych badaniach prowadzo nych „w paradygmacie Lindy” nie uzyskano artefaktów. Wykazano ponadto (Koehler, 1996), że w realnych sytuacjach życiowych tendencyjność w wydawaniu sądów jest znacznie mniejsza niż w badaniach
562
Rozdział 12. Wydawanie sądów i podejmowanie decyzji
laboratoryjnych. Na przykład ignorowanie proporcji podstawowej ma znacznie mniejszy zasięg, niż można by sądzić na podstawie badań Tversky’ego i Kahnemana. Nie znaczy to, że proporcja podstawowa jest precyzyjnie obliczana i uwzględniana w decyzjach, jednak zakres jej ignorowania jest w rzeczywistości mniejszy. Ale na pewno nie wszystkie wyniki badań to artefakty. Rodzi się w takim razie pytanie, dlaczego ludzie stosują omylne heurystyki zamiast ścisłych reguł i czy takie heurystyki mają jakiekolwiek znaczenie poznawcze lub praktyczne. Szukając odpowiedzi, trzeba zwrócić uwagę na dwie okoliczności. Po pierwsze, ludzie stosują proste, lecz zawodne heurystyki, bo nie mają innego wyjścia. Wykonanie skomplikowanych obliczeń wymaga czasu, umiejętności i wolnych zasobów poznawczych. Niespełnienie chociażby jednego z tych trzech wa runków sprawia, że musimy skorzystać z prymitywnych narzędzi o ograniczonej skuteczności. Po drugie, ludzie nie są ewolucyjnie przystosowani do korzystania z zaawansowanych metod oceny prawdopodobieństwa lub z innych reguł naukowego wydawania sądów. Rachunek prawdopodobieństwa wymyślono do piero w XIX w., a umysł człowieka jako gatunku rozwinął się już przed dzie siątkami tysięcy lat. Wprawdzie nasi przodkowie, łowcy i zbieracze żyjący na legendarnej sawannie musieli jakoś oceniać szanse i zagrożenia, np. dotyczące zachowania się zwierzyny lub w odniesieniu do grożących im klęsk żywio łowych. Nie byli wolni od konieczności wydawania sądów probabilistycznych, ale nie dysponowali narzędziami intelektualnymi wypracowanymi dopiero przez nowoczesną naukę. Tymczasem zadania, które zwykle daje się ludziom w ba daniach nad wydawaniem sądów, operują właśnie kategoriami rachunku prawdopodobieństwa i innych dziedzin nauki. Nic dziwnego, że badacze stwier dzają mnóstwo sądów błędnych i tendencyjnych, bo postępują trochę tak, jak gdyby wymagali od wozu drabiniastego, że będzie klimatyzowany. Rachunek prawdopodobieństwa wymaga nie tylko stosowania reguł obliczania szans na wystąpienie różnych zdarzeń, lecz również posługiwania się pojęciami przypadku i lośowości. Ludzie nie wiedzą, co to znaczy „zdarzenie losowe”, szukając za wszelką cenę racjonalnej przyczyny tego, co się stało. Jeśli więc stwierdzają, że w totolotku padł wynik: 1 2 3 4 5 6, skłonni są dopatrywać się w tym przejawów czyjejś ingerencji. Losowość w sensie statystycznym jest pojęciem teoretycznym, które nie odpowiada na szym potocznym intuicjom. Zresztą pojedyncze zdarzenie losowe zawsze jest jakoś zdeterminowane; np. wynik losowania w totolotku zależy od wzajemnego oddziaływania kul w bębnie maszyny losującej. Coś jest zatem losowe, bo nieprzewidywalne, ale zdeterminowane, bo stanowi końcowe ogniwo długiego łańcucha zdarzeń. W potocznym rozumieniu świata ujawnia się tylko drugi aspekt zdarzenia losowego, mianowicie to, że ktoś (lub coś) musiał się przyczy nić do jego zaistnienia. Natomiast aspekt teoretyczny zjawisk losowych jest większości ludzi zupełnie obcy. Unikanie uniwersalnych błędów i tendencji poznawczych wymaga ponadto operowania elementami statystyki, takimi jak pojęcie reprezentatywności próbki i prawo wielkich liczb. Umysł, rozwinięty jako narzędzie rozumienia zjawisk niekoniecznie reprezentatywnych i przysto sowany do operowania na stosunkowo małych liczbach, musiał okazać swoją
12.1. Wydawanie sądów
563
słabość w kontakcie z kategoriami pojęciowymi współczesnej nauki. Naukę tworzą jednak ludzie dla ludzi, co oznacza, że uniwersalne błędy i tendencje poznawcze można przezwyciężyć w wyniku uważnej analizy zadania i pod wa runkiem wcześniejszego przyswojenia ważnych elementów wiedzy. Proste heurystyki mają też tę zaletę, że umożliwiają sformułowanie poprawnego sądu osobom, które bez nich byłyby skazane na porażkę ze względu na brak wymaganych zdolności intelektualnych. Stanovich i West (1998) powtórzyli badanie w paradygmacie Lindy, uzyskując wyniki zbliżone do oryginalnych danych Kahnemana i Tversky’ego: ok. 80% badanych uległo złudzeniu koniunkcji, a ok. 20% wykazało się odpornością na ten efekt. Autorzy sprawdzili następnie, czy osoby podatne i niepodatne na złudzenie koniunkcji różnią się pod względem ogólnej sprawności intelektualnej, mierzonej testem SAT4. Różnica ta okazała się znaczna, zarówno w wartościach bezwzględnych (81 punktów), jak i w języku siły efektu (d = 0,746). Kiedy jednak autorzy zmienili sposób przedstawienia tego problemu, pytając o szacowaną częstość pojawienia się osób spełniających pojedyncze lub podwójne kryterium (np. jak myślisz, ile kobiet na 100, takich jak Linda, mogłoby pracować w banku i być feministkami), liczba badanych ulegających złudzeniu koniunkcji zmniejszyła się dramatycznie. Co więcej, po zmianie sposobu reprezentacji problemu grupa badanych podatnych na złudzenie nie różniła się już pod względem ogólnej sprawności intelektualnej od tych, którzy nie byli podatni. Można na tej podstawie wnioskować, że osoby mniej inteligentne częściej popełniały błąd koniunkcji, ponieważ nie dysponowały potrzebnymi zdolnoś ciami, aby skutecznie zmagać się z problemem szacowania prawdopodobieństwa koniunkcji. Częściej zatem odwoływały się do heurystyki reprezentatywności, która działając jak prosty i intelektualnie niewymagający „wytrych”, zastępo wała im rzetelne myślenie o problemie, a tym samym prowadziła do błędnego wniosku. W momencie gdy problem przedstawiono w postaci mniej wymaga jącej, nieskuteczna proteza w postaci heurystyki reprezentatywności okazała się niepotrzebna, a zadanie przestało różnicować osoby inteligentne i mniej inte ligentne.
12.1.4. Sądy intuicyjne Terminem poznanie intuicyjne określamy szeroką kategorię zjawisk dotyczących pamięci, uczenia się, nabywania wiedzy, języka oraz myślenia i rozwiązywania problemów. Wspólną cechą tych zjawisk jest to, że człowiek wykonuje złożone czynności poznawcze, np. rozwiązuje problem lub nabywa abstrakcyjnej wiedzy, nie zdając sobie sprawy z istotnych elementów tego procesu lub z jego przesła nek, a często nawet z tego, że w ogóle dysponuje jakąś sprawnością poznawczą lub wiedzą. Istotą intuicji jest więc zdolność umysłu ludzkiego do działania w warunkach niepełnego uświadomienia sobie przyczyn, motywów, przesłanek lub mechanizmów tego działania (Myers, 2002). Intuicyjny charakter mają niektóre z wydawanych przez nas sądów. Czło wiek jest wówczas przeświadczony, że coś wie, ale nie wie, skąd wie. Ma su 4 Scholastic Aptitude Test, stosowany w USA jako kryterium przyjęcia na studia.
564
Rozdział 12. Wydawanie sądów i podejmowanie decyzji
biektywne poczucie nagłości, oczywistości i aprioryczności swojego sądu (Nęcka, 1983). Sąd intuicyjny jest nagły, bo w doświadczeniu wewnętrznym nie stanowi końcowego ogniwa dłuższego ciągu rozumowania. Jest oczywisty, bo nie domaga się uzasadnień, jego prawdziwość nie budzi wątpliwości. Jest wreszcie aprioryczny, bo wydaje nam się, że powstał nie na podstawie doświad czenia i wiedzy, lecz w wyniku tajemniczego „olśnienia”. Nagłość sądu apriorycznego wydaje się cechą charakterystyczną, ale niekonieczną, można bowiem wskazać przykłady wiedzy intuicyjnej, która jak gdyby narasta w dłuższym przedziale czasu. Człowiek coraz bardziej utwierdza się w swoim przekonaniu, choć nadal nie potrafi go uzasadnić. Również oczywistość sądu intuicyjnego zdaje się występować nie w każdym przypadku. Zdarzają się prze czucia, o których prawdziwości jesteśmy przekonani tylko w pewnym stopniu. Doświadczamy czegoś, co się nazywa poczuciem wiedzy (feeling of knowing, FOK), ale nie zawsze jest to poczucie mocne i niezachwiane. Natomiast aprioryczność sądu intuicyjnego zdaje się być jego cechą nieodzowną. Subiektywne poczucie aprioryczności oczywiście w żadnym wypadku nie przesądza, że sąd intuicyjny ma być takowym obiektywnie. Zadanie badawcze psychologów kognitywnych polega właśnie na tym, aby odsłonić mechanizm tworzenia się sądu intuicyjnego, a także jego obiektywne, choć nieuświadomione przesłanki. Pojęcie sądu intuicyjnego odnosimy do trzech kategorii zjawisk. W pierw szym znaczeniu chodzi o sądy, których nie potrafimy uzasadnić. Są to jak gdyby przeczucia, których przeciwieństwo stanowią sądy racjonalne, możliwe do uzasadnienia poprzez rozumowanie, użycie logicznych argumentów i wyko rzystanie wiedzy. Trzeba jednak pamiętać, że mówimy tutaj o dwóch biegunach kontinuum: większość naszych sądów mieści się gdzieś pośrodku tego wymiaru, ponieważ nie jest wystarczająco uzasadniona albo też uzasadnienia są wtórnie wytwarzane już po sformułowaniu sądu. Ponadto rozróżnienie sądów racjonal nych i intuicyjnych nie jest tożsame z rozróżnieniem sądów poprawnych i błędnych, choć sądom intuicyjnym często towarzyszy silne, subiektywne prze konanie o ich słuszności. Zarówno rozum, jak intuicja mogą prowadzić do sądów poprawnych lub błędnych (Myers, 2002). Jednak sądy racjonalne łatwiej nam zweryfikować, np. poddając ich uzasadnienie krytycznej ocenie, podczas gdy sądy intuicyjne trudniej potwierdzić, ale i trudniej im zaprzeczyć. Jeśli bowiem nie wiemy, na czym dany sąd się opiera, jesteśmy bezradni w kwestii jego walidacji. Empiryczne badania nad poznaniem intuicyjnym prowadził - jako jeden z pierwszych - Malcolm Westcott (1968). Prezentował on osobom badanym ciągi liczb wymagające uzupełnienia, np.: 5748? Uzupełnianie ciągów jest przykładem rozumowania indukcyjnego, ponieważ wymaga sformułowania ogólnego prawa na podstawie ograniczonej liczby poszczególnych przypadków. W powyższym przykładzie poprawnym uzupeł nieniem będzie liczba 3, ponieważ w ten sposób spełniona jest reguła, że kolejne wartości uzyskujemy naprzemiennie, dodając i odejmując wartości przyrastające o jeden (5 + 2 = 7, 7 - 3 = 4, 4 + 4 = 8, 8 - 5 = 3). Westcott zauważył, że niektórzy ludzie skłonni są do tzw. przeskoków intuicyjnych (,intuitive leaps), czyli zgadywania kolejnych wartości ciągu jeszcze przed
12.1. Wydawanie sądów
565
sformułowaniem ogólnej zasady. Ktoś może „intuicyjnie” wiedzieć, jaka ma być kolejna wartość ciągu, ale nie jest w stanie tego uzasadnić. Potrzebuje niewiele informacji, aby zgadywać lub przewidywać dalsze elementy ciągu. Jeśli się przy tym nie myli, zasługuje na miano intuicjonisty. Jeśli natomiast przedwczesne próby prowadzą raczej do wniosków błędnych, mowa jest o „niepoprawnych zgadywaczach”. Osoby potrzebujące dużo informacji również mogą być skuteczne lub nieskuteczne. Skrzyżowanie dwóch wymiarów: skłonności do intuicyjnych przeskoków lub jej braku, oraz poprawności lub błędności wniosków, daje cztery kategorie osób. Westcott interesował się szczególnie tym, czy są jakieś cechy wspólne intuicjonistom. Stwierdził, że do takich cech należą: skłonność do abstrakcyjnego myślenia, tolerancja na sytuacje wielo znaczne, upodobanie do ryzyka i tolerancja na krytykę ze strony innych osób. Intuicjonistów cechuje też niekonwencjonalność i niezależność w stosunku do ocen społecznych. Inne podejście do problemu zastosował Kenneth Bowers wraz ze współ pracownikami (1990). W badaniach użyto materiału werbalnego lub niewerbal nego o różnym poziomie koherencji. Na przykład trójkę słów: grzywa, król i pustynia, uznano za koherentne, ponieważ istnieje czwarte słowo kojarzące się z wszystkimi trzema (lew). Natomiast słowa: jedwab, kamień, koza, uznano za niekoherentne, to znaczy w żaden sposób niepowiązane. Ideę wewnętrznej spójności trzech oderwanych słów zapożyczono z Testu Odległych Skojarzeń RAT (Mednick, Mednick, 1964). W omawianych badaniach uczestnikom pokazywano jednocześnie trójkę koherentną i niekoherentną. Ich zadanie polegało na wymyśleniu rozwiązania, czyli słowa kojarzącego się ze wszystkimi elementami trójki. Jeśli nie byli w stanie tego uczynić, musieli wskazać, która z dwóch trójek w ogóle ma takie rozwiązanie, a także ocenić poziom zaufania do własnego sądu. Okazało się, że badani częściej wskazywali trójki koherentne niż niekoherentne jako te, które mają rozwiązanie, a ponadto byli dość pewni swoich sądów (ramka 12.2). Można więc powiedzieć, że dokonywali sądów subiektywnie apriorycznych i oczywistych. Ramka 12.2
Intuicja jako dostrzeganie sensu, którego nie da się wyrazić w słowach
Bowers i współpracownicy (1990) przeprowadzili serię eksperymentów, które mieszczą się w coraz szerszym nurcie badań nad poznaniem utajonym (implicit cognition; zob. Underwood, 1996). Wspólną cechą tych eksperymentów było ba danie zdolności ludzi do dostrzegania sensu w prezentowanym im materiale { werbalnym lub niewerbalnym, mimo niezdolności do zwerbalizowania, na czym ów J sens polega. W pierwszym eksperymencie wzięło udział pięć grup liczących od 33 do 100 osób. Uczestnikom pokazywano, w tempie raz na osiem lub raz na 12 sekund, dwie trójki słów, np.: a
PLAYING CREDIT REPORT
b
STILL PAGES MUSIC
566
i
\ i ;
:
i
i |
Rozdział 12. Wydawanie sądów i podejmowanie decyzji
Po ekspozycji następowała 8-sekundowa przerwa, podczas której badani mieli wpisać na standardowym arkuszu odpowiedzi słowo, które kojarzyło im się z trzema elementami jednej z trójek (triad). Powiedziano im, że jedna triada z każdej pary ma takie słowo. W podanym przykładzie jest to triada A, ponieważ istnieje czwarte słowo (CARD), które kojarzy się ze wszystkimi trzema (playing card, credit card, report card). Zasadę wynajdywania skojarzenia z trzema słowami naraz za czerpnięto z Testu Odległych Skojarzeń RAT (Mednick, Mednick, 1962). Z testu tego zapożyczono również niektóre pozycje, inne zaś wymyślono na nowo. W każdej parze była trójka spójna (koherentna), czyli posiadająca rozwiązanie, i niespójna, czyli bez rozwiązania. Tego oczywiście nigdy nie można być pewnym, ponieważ różnym ludziom różne rzeczy się kojarzą. Autorzy wykryli jednak bardzo mało przypadków, aby ktoś znalazł rozwiązanie, którego oni sami nie przewidzieli. Pozycje tego typu były eliminowane z dalszych eksperymentów. W badaniu wyko rzystano 60 jednostek, z których każda składała się z triady spójnej i niespójnej. Jeśli badani nie byli w stanie wykryć, które słowo kojarzy się z pozostałymi elementami trójki, mieli za zadanie wskazać, która z dwóch trójek tworzących daną pozycję testu w ogóle ma rozwiązanie. Był to kluczowy element procedury, dzięki któremu możliwe było stwierdzenie, czy ludzie dysponują intuicyjnymi przeczuciami, trudnymi do uzasadnienia sądami na temat wewnętrznej spójności prezentowa nego im materiału. Wychodząc z założenia, że pierwszym etapem tworzenia się intuicyjnego sądu jest naprowadzanie, czyli aktywizacja właściwych elementów sieci semantycznej, autorzy skonstruowali tzw. wskaźnik naprowadzania. Zdefinio wali go jako proporcję liczby trójek wskazanych jako spójne do ogólnej liczby trójek, dla których nie znaleziono rozwiązania. Jeżeli wskaźnik naprowadzania był bliski 0,50, oznaczał, że osoby badane nie dysponowały żadnym intuicyjnym wy czuciem koherencji. Jeśli wskaźnik ten przekraczał znacząco wartość 0,50, autorzy wnioskowali o istnieniu intuicyjnych, trudnych do uzasadnienia i zwerbalizowania sądów na temat ukrytego sensu, wiążącego trzy oderwane słowa. Badani oceniali ponadto na trójstopniowej skali (0, 1 i 2) poziom zaufania do własnych sądów. Autorzy mogli dzięki temu stwierdzić, czy uczestnicy ekspery mentów ufają swym intuicyjnym przeczuciom. Okazało się, że pełne zaufanie (poziom 2) deklarowano stosunkowo rzadko (od 9 do 16 razy na 100 przypadków). Znacznie częściej deklarowano zaufanie na poziomie niskim (ocena 0) lub średnim (ocena 1). Mimo to zaobserwowano pozytywną korelację (średnio na poziomie +0,23) między szacowanym poziomem zaufania do własnych sądów a wartością wskaźnika naprowadzania. Oznacza to, że im częściej osoby badane były pewne swojego sądu, tym częściej trafnie wskazywały koherentną triadę, mimo że nie były w stanie wskazać rozwiązania tej triady. Co więcej, wskaźnik naprowadzania okazał się istotnie wyższy od poziomu przypadku (równego 0,50), przybierając średnią wartość 0,58 w odniesieniu do wszystkich grup eksperymentalnych. Badani częściej niż przypadkowo wskazywali, która triada jest wewnętrznie spójna, choć najczęściej nie wiedzieli, dlaczego jest spójna. Wskaźnik naprowadzania był jednak istotnie wyższy od poziomu przypadku tylko wtedy, gdy deklarowane zaufanie do własnego sądu było co najmniej średnie. Niski poziom zaufania szedł zwykle w parze ze wskaźnikiem naprowadzania bliskim 0,50. Uczestnicy tego ekspery mentu nie reagowali więc całkiem „na ślepo”. Mogli nie wiedzieć, dlaczego niektóre
12.1. Wydawanie sądów
567
trójki słów wydają im się sensowne, ale mieli przynajmniej słabe, subiektywne przekonanie, że się nie mylą. W eksperymencie replikacyjnym „wyczyszczono” materiał eksperymentalny, dzieląc triady koherentne na zbieżne i rozbieżne. W pierwszym przypadku słowo-rozwiązanie miało to samo znaczenie w relacji do każdego z trzech słów, podczas gdy w przypadku triad niespójnych słowo-rozwiązanie zasadniczo zmieniało zna czenie, w zależności od tego, z czym miało się kojarzyć. W triadach semantycznie rozbieżnych często np. wykorzystywano homonimy (zamek kojarzy się ze ślusa rzem, krawcem i rycerzem, choć z różnych powodów), czego w triadach zbieżnych unikano. Wyniki drugiego eksperymentu potwierdziły to, co zaobserwowano w pierwszym. Udało się ponadto wykazać, że triady koherentne semantycznie spójne były częściej rozwiązywane (r = 0,32), a jeśli rozwiązania nie udało się odnaleźć - były częściej wskazywane jako te, które rozwiązanie posiadają (r = 0,44). Uniknięto tym samym zarzutu, że triady koherentne były wskazywane przez badanych niejako domyślnie - wyłącznie na tej podstawie, że triady niekoherentne odrzucano, a wybór był wymuszony instrukcją. Okazało się, że czynnikiem skła niającym ludzi do akceptacji triady była semantyczna zbieżność tworzących ją trzech słów. W drugim eksperymencie wykorzystano materiał niewerbalny. Elementy ko herentne utworzono ze „zdegradowanych”, fragmentarycznych rysunków konturu przedmiotu lub zwierzęcia. Elementy niekoherentne uzyskano, tworząc analogicz ne, ale bezsensowne układy czarnych plam na białym tle. Badani mieli powiedzieć, co przedstawia dany rysunek, a jeśli nie potrafili tego zrobić, mieli wybrać ten element pary, który - ich zdaniem - coś przedstawiał. Podobnie jak poprzednio, badani mieli decydować, który element pary ma sens, a który jest bezsensowny. Oceniali też subiektywne zaufanie do własnych sądów. Okazało się, że wskaźniki naprowadzania były nieco wyższe niż w eksperymencie z bodźcami werbalnymi (średnio 0,60, poziom przypadku 0,50). Stwierdzono również pozytywną, choć słabą korelację między wartością wskaźnika naprowadzania a poziomem zaufania do własnych sądów (średnio 0,23). Autorzy konkludują, że w fazie naprowadzania tworzy się percepcja wzorca lub postaci (Gestalt), która - choć trudna do zwer balizowania - daje podstawę do trafnych sądów. W trzecim eksperymencie wykorzystano inne zadanie, zwane Testem Skumu lowanych Wskazówek (Ąccumulated Clues Task, ACT). Osobom badanym prezen towano 15 słów w tempie jedno słowo na 10 s. Wszystkie elementy serii kojarzyły się z szesnastym słowem, chociaż niektóre skojarzenia były bardzo odległe. Uczestnicy mieli zaznaczać, przy którym kolejnym bodźcu domyślili się rozwiąza nia, a przy którym byli go pewni. Procedura eksperymentu odpowiadała więc, w bardzo dużym przybliżeniu, dwom etapom badania naukowego: odkrycia i uza sadnienia. Okazało się, że badani potrzebowali średnio ok. 10 słów, aby wykryć rozwiązanie. Przypuszczalnie kolejne słowa w serii wzbudzały podobne węzły sieci semantycznej, kumulując się w węźle, który odpowiadał rozwiązaniu, i silnie go wzbudzając. Natomiast korelacja między liczbą wskazówek potrzebnych do sfor mułowania hipotezy a liczbą wskazówek niezbędnych do upewnienia się w jej słuszności okazała się słaba i nieistotna. Sugeruje to, że sformułowanie hipotezy jest czymś innym od jej uzasadnienia.
568
Rozdział 12. Wydawanie sądów i podejmowanie decyzji
Na podstawie wyników w ACT osoby badane podzielono na intuicyjne, średnio intuicyjne i słabo intuicyjne. Podstawą podziału była liczba wskazówek niezbęd-! nych do sformułowania hipotezy - im mniejsza, tym wyższy wskaźnik intuicyjności f badanego. Tak wyróżnione grupy miały następnie za zadanie wymyślać skojarzenia 3 w odpowiedzi na poszczególne elementy serii wskazówek. Wymyślano skojarzenia na pierwszy, przedostatni i dwa pośrednie elementy serii. W przypadku intuicjonistów był to zwykle element pierwszy, drugi, trzeci i czwarty, a w przypadku nieintuicjonistów - pierwszy, piąty, dziewiąty i trzynasty. Wytworzone w ten sposób | skojarzenia były następnie oceniane przez sędziów kompetentnych ze względu na 3 5 bliskość skojarzeniową ze słowem, które było rozwiązaniem całej serii. Chodziło 3 l o sprawdzenie, czy skojarzenia z przedostatnim elementem będą silniejsze niż i skojarzenia z wcześniejszymi elementami i czy zależy to od poziomu intuicyjności osoby badanej. Gdyby bliskość skojarzeń nie zależała od pozycji słowa w szeregu, można by sądzić, że sąd intuicyjny powstaje nagle, w wyniku tajemniczego ; olśnienia. Gdyby jednak bliskość skojarzeń była większa w przypadku słów zaj; mujących dalsze miejsca w szeregu, można by sądzić, że sąd intuicyjny powstaje ; stopniowo, w wyniku skumulowanego aktywowania właściwego węzła sieci semantycznej. Wyniki eksperymentu wyraźnie pokazały, że bliskość utworzonych skojarzeń ze słowem-kluczem rośnie stopniowo wraz z coraz dalszym położeniem słówbodźców w szeregu słów, tworzących daną pozycję testu ACT. Tę liniową zależność otrzymano w przypadku wszystkich trzech grup, różniących się intuicyjnością jako cechą indywidualną. Autorzy konkludują, że w związku z tym for mowanie się sądu intuicyjnego należy opisywać jako proces ciągły, a nie dyskretny. Badania Bowersa i współpracowników były replikowane również przez innych badaczy. Wykazano m.in. że czynnikiem sprzyjającym formowaniu się sądów intuicyjnych jest pozytywny nastrój, a czynnikiem szkodzącym intuicji - nastrój negatywny (Bolte, Goschke, Kuhl, 2003). Okazało się też, że intuicyjność jako cecha osobowości, mierzona kwestionariuszem MBTI, nie koreluje z intuicyjnością ; mierzoną w paradygmacie wypracowanym przez Bowersa i współpracowników 3 (Langan-Fox, Shirley, 2003). Intuicja jest prawdopodobnie zjawiskiem niejedno litym, obejmującym różne grupy procesów poznawczych i przejawiającym się w różnorodnych typach zadań (Policastro, 1995; Shirley, Langan-Fox, 1996).
Bowers i współpracownicy twierdzą, że sąd intuicyjny powstaje w dwóch etapach. W stadium naprowadzania (guiding stage) uaktywniają się struktury wiedzy, odpowiadające poszczególnym składnikom koherentnej struktury. W tej fazie stopniowo aktywizują się odpowiednie węzły sieci semantycznej, repre zentujące trzy oderwane pojęcia. Wychodząc od każdego z tych węzłów, aktywacja rozprzestrzenia się na inne elementy sieci, zgodnie z istniejącymi po wiązaniami semantycznymi lub skojarzeniowymi. W rezultacie czwarty węzeł, reprezentujący rozwiązanie, staje się również coraz bardziej aktywny, choć nie było bodźca, który byłby za to bezpośrednio odpowiedzialny. Węzeł ten jest jak gdyby „namierzony” z trzech stron, w nim bowiem zbiegają się procesy akty wowania sieci, zaczynające się w węzłach wyjściowych. W wyniku stopniowego uaktywniania się czwartego węzła powstaje nieświadome, ukryte przeświad
12.1. Wydawanie sądów
569
czenie o tym, że trzy oderwane słowa są jakoś powiązane, czyli stanowią ko herentną strukturę. Nie potrafimy powiedzieć, na czym polega ta koherencja, ale jesteśmy subiektywnie przekonani o jej istnieniu. Dopiero w drugim etapie, zwanym fazą integracji, pobudzenie czwartego węzła sieci może przekroczyć wartość graniczną, umożliwiającą uświadomienie sobie i zwerbalizowanie rozwiązania. Zazwyczaj takie rozwiązanie wymaga sprawdzenia, ponieważ nawet w fazie integracji jest niczym więcej, jak tylko hipotezą. Jest to jednak hipoteza o dużym subiektywnym ładunku pewności, a ponadto - choć rodzi się w wyniku dłuższego procesu ciągle narastającego pobudzenia sieci semantycz nej - z punktu widzenia świadomej części umysłu pojawia się nagle i nie spodziewanie. Dlatego sąd w ten sposób wygenerowany cechuje się subiektywną nagłością, oczywistością i apriorycznością (Nęcka, 1983). Teoria Bowersa i współpracowników, wraz z potwierdzającymi ją wynikami badań, jest próbą wyrażenia w języku eksperymentalnej psychologii poznawczej tego samego, o czym traktowała teoria inkubacji (Wallas, 1926). Chodzi o mechanizm odkrycia naukowego, wraz z towarzyszącymi mu przeżyciami nagłego olśnienia i wglądu. Wydaje się jednak, że teoria Bowersa ma szerszy zasięg, ponieważ opisuje nie tylko proces twórczego rozwiązywania problemów, ale również powstawanie sądów intuicyjnych. Poza tym teoria ta pokazuje hipotetyczny mechanizm intuicji, wglądu i odkrycia naukowego, podczas gdy teoria inkubacji nie była zdolna powiedzieć niczego ponad to, że nowa idea „inkubuje się” w nieświadomości. Sąd intuicyjny w drugim znaczeniu to sąd naiwny, oparty na doświadczeniu potocznym, a nie na ugruntowanej wiedzy i sprawdzonych procedurach. Poznanie potoczne polega na bezkrytycznym przyjmowaniu sądów ogólnie roz powszechnionych, składających się na tzw. zdrowy rozsądek. Elementy takiego poznania mogą też wynikać z mało wnikliwych obserwacji i nadmiernego uogól niania jednostkowych obserwacji. Sądy potoczne często przybierają postać przysłów, o których mówi się, że to mądrość ludu, choć są wzajemnie sprzeczne5, a prawie zawsze nieudowodnione. Ponadto sądy naiwne to ele menty wiedzy przednaukowej, np. dziecięce wyobrażenia na temat ruchu Słońca wokół Ziemi przed Kopernikiem powszechnie uznawane za prawdziwe. Obecnie, dzięki powszechnej edukacji, każdy z nas wie, że to Ziemia kręci się wokół Słońca, choć sąd taki ciągle wydaje się sprzeczny ze zdrowym roz sądkiem. Przewrót kopernikański przyswoili sobie prawie wszyscy, ale inne odkrycia naukowe znane są tylko nielicznym. Dlatego potoczne wyobrażenia na temat świata fizycznego lub społecznego zazwyczaj mają niewiele wspólnego z wiedzą naukową. Zresztą nauka też nie ma monopolu na prawdę - można zaryzykować twierdzenie, że jej rozwój polega na nieustannym zastępowaniu naiwnych, niesprawdzonych i błędnych teorii modelami lepiej dopasowanymi do wyników badań. Wiele twierdzeń naukowych to nic innego, jak przesądy, dość bezkrytycznie powtarzane przez kolejne pokolenia uczonych, albo po prostu sądy naiw ne, w ynikające z potocznego dośw iadczenia, ale ubrane w specjalistyczny żargon. Wiedza prawdziwie naukowa, czyli sprawdzona, 5 Na przykład przysłowie „Niedaleko pada jabłko od jabłoni” wyraża przekonanie natywistyczne, a powiedzenie „Czym skorupka za młodu nasiąknie, tym na starość trąci” - wręcz przeciwne przekonanie o roli środowiska w rozwoju psychicznym.
570
Rozdział 12. Wydawanie sądów i podejmowanie decyzji
cechuje się właśnie tym, że nader często godzi w powszechnie przyjęte przekonania i „naturalne” intuicje. Badanie poznania potocznego polega na analizie modeli umysłowych dotyczących określonego obszaru rzeczywistości fizycznej lub społecznej. Badano np., w jaki sposób ludzie wyobrażają sobie trajektorię lotu pocisku wypuszczonego z samolotu lecącego na określonej wysokości ze stałą prędkością (McCloskey, 1983a). Zadanie polegało na narysowaniu drogi pocisku i zazna czeniu miejsca, w którym znajdzie się samolot w momencie uderzenia pocisku o grunt. Przy założeniu, że prędkość samolotu jest stała, a opór powietrza należy zignorować, tor lotu pocisku utworzy parabolę, a samolot w momencie uderzenia pocisku o Ziemię znajdzie się dokładnie nad miejscem, w którym to nastąpi. Tylko 40% dorosłych badanych udzieliło poprawnej odpowiedzi. Pozostali twierdzili, że pocisk spadnie w linii prostej - pionowej lub nachylonej wobec gruntu pod kątem rozwartym. Tak duża liczba błędnych odpowiedzi oznacza, że nawet jeśli ich autorzy uczyli się kiedyś elementarnej fizyki, dawno o tym zapomnieli. Inny przykład błędnej intuicji na temat fizyki to prze widywanie trajektorii ruchu piłeczki, którą wystrzeliwuje się ze spiralnej rury leżącej płasko na stole. Piłeczka będzie się oczywiście toczyć po powierzchni stołu wzdłuż linii prostej, która jest styczna do krzywizny spirali w jej punkcie końcowym (ryc. 12.1). Tymczasem ok. 40% badanych studentów stwierdziło, iż "
\
\ /
\
\ \ \
O
O
/
\ \ \
O
Ryc. 12.1. Poprawne (lewa strona) i naiwne (prawa strona) przewidywanie ruchu obiektu (za: McCloskey, 1983b).
piłeczka będzie się poruszać po krzywej, która jest kontynuacją krzywizny spirali (McCloskey, 1983b). Umysłowa reprezentacja ruchu, która kryje się za błędnymi odpowiedziami, różni się zasadniczo od pojęć i reguł mechaniki klasycznej. Mimo to górę bierze naiwne, intuicyjne rozumienie ruchu. Być może błędny model umysłowy ruchu pozwala z pewnym przybliżeniem przewidywać zachowanie przedmiotów w większości mało wyrafinowanych zadań poznaw-
12.1. Wydawanie sądów
571
czych, a w przypadku zadań bardziej złożonych konsekwencje jego użycia nie są przesadnie negatywne. Tak można by tłumaczyć przydatność potocznych intuicji, a tym samym ich trwałość i subiektywną pewność. Ruch jest jedną z najważniejszych kategorii poznawczych, dlatego potoczne intuicje na temat mechaniki są dość rozpowszechnione (Profitt, 1999). Jednak poznanie potoczne dotyczy wielu innych dziedzin, np. matematyki. Podstawowe intuicje matematyczne, np. pojęcie dzielenia bez reszty, są dostępne nawet osobom bez formalnego wykształcenia (Gelman, 1999). To samo można po wiedzieć o posługiwaniu się pieniędzmi i wykonywaniu podstawowych operacji finansowych (Nunes, Schliemann, Carraher, 1993). W przeciwieństwie do naiwnych teorii ruchu, intuicje matematyczne są zazwyczaj trafne, przynajmniej dopóty, dopóki rzecz nie dotyczy liczb ujemnych lub innych „nienaturalnych” pojęć. Intuicja odgrywa też dużą rolę w tzw. poznaniu społecznym (social cognition), w szczególności jeśli chodzi o kategoryzowanie ludzi i powstawanie stereotypów (Hirschfeld, 1999). Ludzie spontanicznie dzielą świat społeczny według różnych kryteriów, np. rasowych, etnicznych lub związanych z wiekiem. Za tymi podziałami kryją się potoczne, naiwne sądy na temat tego, czym jest rasa, narodowość lub wiek jako cecha wyróżniająca daną osobę spośród innych ludzi, a nawet jako czynnik wyjaśniający zachowanie członków stygmatyzowanej grupy. Prowadzi to czasem do działań dyskryminujących ludzi ze względu na samą tylko przynależność do określonej grupy, ale najczęściej kończy się na sformułowaniu pejoratywnego sądu i wyrażeniu go. Sąd intuicyjny w trzecim znaczeniu to sąd alogiczny. Opisane wcześniej przykłady korzystania z heurystyki reprezentatywności lub dostępności to właśnie przykłady sądów opartych nie na logicznym rozumowaniu, lecz na uproszczonych heurystykach. Przykładem poznania alogicznego są też sądy dzieci w wieku przedoperacyjnym na temat stałości masy lub objętości (Piaget, 1966). Dziecko widzi np. dwie szklanki wody i stwierdza, że w każdej jest tyle samo cieczy. Następnie obserwuje, jak woda z jednej szklanki zostaje przelana do szerszego naczynia. Zapytane, czy teraz też w obu naczyniach jest tyle samo wody, zaprzecza, kieruje się bowiem tylko jednym aspektem problemu, np. tym, że slup wody w szerszym naczyniu jest niższy (mniej wody), albo tym, że średnica drugiego naczynia jest większa (więcej wody). Dopiero w wieku ok. 6 lat dzieci stwierdzają, że w obu naczyniach jest tyle samo wody. Zdaniem Piageta, myślenie alogiczne trwa dopóty, dopóki dziecko nie uzasadni po prawnie swojego sądu, mówiąc np., że w obu naczyniach jest tyle samo wody, bo to ta sama woda. Poznanie intuicyjne może bowiem prowadzić do poprawnego sądu, ale nie do poprawnego uzasadnienia. W momencie gdy uzasadnienie od wołuje się do odwracalności wcześniej wykonanej operacji (wodę można z powrotem przelać do pierwszego naczynia i to będzie ciągle ta sama woda), sąd intuicyjny ustępuje sądowi logicznemu. Istotą myślenia operacyjnego, czyli logicznego, jest - zdaniem Piageta odwracalność operacji umysłowych. Operacje są odwracalne, jeśli ich negacja znosi skutek ich własnego działania. Operacja dodawania jest odwracalna, bo po dodaniu wartości x do liczby y, a następnie odjęciu jej, otrzymujemy z powrotem liczbę y, np. 7 + 5 - 5 = 7. Czynności umysłowe dziecka w stadium przed operacyjnym nie są odwracalne, stąd typowe dla wieku przedszkolnego błędy w ocenie takich wielkości, jak masa lub objętość. Wydaje się, że niektóre
572
Rozdział 12. W ydaw anie sądów i podejm ow anie decyzji
czynności umysłowe ludzi dorosłych też nie spełniają kryterium odwracalności, nie są więc, w ujęciu Piageta, operacjami. Na przykład uczestnicy badań Lista (2004) nie zgadzali się na zamianę czekolady wartej 6 dolarów na kubek o tej samej wartości tylko dlatego, że najpierw otrzymali w prezencie czekoladę; odwrotne preferencje zaobserwowano u osób, które najpierw otrzymały w prezencie kubek. Wydaje się, że wiele przypadków nieracjonalnego wyboru lub tendencyjnego wydawania sądów można wytłumaczyć tym, że ludzie stosują zabiegi poznawcze, którym brak logicznej odwracalności. Oznaczałoby to, że stosowalność teorii operacji umysłowych Piageta daleko wykracza poza zjawiska związane z rozwojem poznawczym.
12.2. Podejmowanie decyzji 12.2.1. Klasyczna teoria decyzji Klasyczna teoria decyzji (KTD) opisuje zachowanie idealnego, doskonale racjonalnego sprawcy (decydenta) w warunkach wymagających wyboru jednej spośród pewnej liczby dobrze znanych opcji (Edwards, 1953; Kozielecki, 1975; von Neumann, Morgenstern, 1944). Doskonale racjonalny decydent kieruje się zasadą użyteczności, biorąc pod uwagę przede wszystkim te opcje, które niosą mu jakąś korzyść. Kieruje się także zasadą prawdopodobieństwa, odrzucając opcje mato realne. Przypuśćmy, że szukając pracy, rozważamy dwie oferty6. Fir ma A daje nam 50% pewności wzrostu wynagrodzenia o 20% w ciągu naj bliższego roku, a firma B daje 90% pewności podwyżki, ale tylko o 10% w ciągu roku. Pierwsza firma kusi więc dwukrotnie większą podwyżką, ale druga firma daje znacznie więcej szans na to, że podwyżka w ogóle nastąpi. Co wybierzemy? Racjonalny decydent dokonałby obliczeń, mnożąc wielkość spodziewanego zysku przez jego prawdopodobieństwo, po czym wybrałby firmę A. Wynika to z następującego porównania: A = 0,20 • 0,50 = 0,10 B = 0,10 • 0,90 = 0,09
Użyteczność firmy A jako przyszłego pracodawcy okazała się minimalnie lepsza, stąd wybór tej właśnie oferty. Łatwo zauważyć, że ludzie nie podejmują decyzji w ten sposób. KTD jest więc raczej modelem preskryptywnym niż deskryptywnym, to znaczy podaje przepis na racjonalną decyzję, ale nie opisuje rzeczywistych zachowań ludzi w sytuacjach wymagających podjęcia decyzji. Przede wszystkim model ten operuje absolutnymi wartościami prawdopodobieństwa i zysku (lub straty), podczas gdy wartości te są względne. Ktoś może uznać, że i tak nie dostanie podwyżki, bo ma pecha, a ktoś inny uzna, że podwyżkę dostanie na pewno. W obu przypadkach teoretyczne prawdopodobieństwo otrzymania podwyżki (0,20 lub 0,10) będzie zasadniczo różne - bliskie zera w pierwszym przypadku, a bliskie pewności - w drugim. Ponadto subiektywnej ocenie podlega też 6 Przykład zaczerpnięto z podręcznika Sternberga (1996).
12.2. Podejm ow anie decyzji
573
wartość oczekiwanego zysku lub straty. Czym innym jest 10-procentowa podwyżka dla kogoś, komu proponuje się wyjściowe zarobki na poziomie 1000 zł, a czym innym dla kogoś, kto ma zarabiać dwu- lub trzykrotnie więcej. Subiektywna użyteczność pewnej sumy pieniędzy, czy to wyrażona w procen tach, czy też w wartościach bezwzględnych, nie jest tym samym, co obiektywna wartość nabywcza tejże sumy. Wreszcie samo pojęcie prawdopodobieństwa nie jest tutaj jasne. Na jakiej podstawie pracodawca może określić szansę podwyżki jako 0,10 lub 0,20? Nie ma żadnych teoretycznych podstaw, aby te wartości jakoś wyliczyć, tak jak wylicza się szansę wylosowania szóstki w totolotka lub otrzymania orła w rzucie monetą. Można by w takim razie odwołać się do częstości zdarzeń, np. do tego, że dany pracodawca do tej pory dawał podwyżkę jednemu pracownikowi na pięciu (0,20) lub jednemu na dziesięciu (0,10). Wymagałoby to jednak wykorzystania stosownych danych i wykonania obliczeń statystycznych, czego zwykle się nie robi. Tak więc podawane wartości prawdopodobieństwa są w istocie przybliżoną szansą otrzymania podwyżki, szacowaną przez pracodawcę intuicyjnie i równie intuicyjnie odbieraną przez kandydata, a nie prawdopodobieństwem w technicznym znaczeniu tego pojęcia. A tylko technicznie rozumiane prawdopodobieństwo pozwala posługiwać się obliczeniami. Chcąc zmodyfikować KTD w taki sposób, aby opisywała rzeczywiste, a nie idealne zachowania ludzi, wprowadzono pojęcie oczekiwanej subiektywnej użyteczności wyniku (SEU, subjective expected utility). SEU oznacza wartość konkretnej opcji jako funkcję subiektywnego prawdopodobieństwa jej wystą pienia i subiektywnej użyteczności jej skutków. Jeśli ktoś uważa, że ma pecha, przekształci „oficjalne” deklaracje pracodawców na własne szacunki, znacznie niższe niż 0,20 czy nawet 0,10. Odwrotnie postąpi osoba, która uważa, że ma szczęście lub z jakichś powodów zasługuje na uśmiech losu. Zresztą subiek tywne oceny szans mogą być różne w zależności od potencjalnego pracodawcy, ponieważ decydent może kierować się uprzedzeniem albo dysponować dodatkową wiedzą, modyfikującą ocenę szans. Co więcej, subiektywnemu sza cowaniu podlegają nie tylko szanse podwyżki, ale też jej indywidualna uży teczność. Ktoś może ignorować w podejmowaniu decyzji wielkość spodziewanej podwyżki, jeśli bierze pod uwagę inne okoliczności, np. pewność zatrudnienia lub dodatkowe bonusy. Ktoś inny może być zorientowany wyłącznie na to, ile zarobi. Do powyższych równań należy zatem wprowadzić współczynniki mo dyfikujące szansę każdej z opcji oraz jej wartość dla decydenta. Przyjmijmy, że dla konkretnego kandydata do pracy subiektywne prawdo podobieństwo otrzymania podwyżki wynosi zaledwie 0,05, a subiektywna uży teczność tejże podwyżki jest równa 10. Przez te współczynniki należy pomnożyć „obiektywne” wartości prawdopodobieństwa i podwyżki. Osoba, która uważa, że ma pecha, ale dla której zarobki są ważną motywacją starania się o pracę, może dojść do następujących wyliczeń: A = sp • (su • 0,50) = (0,05) • (10 • 0,50) = 0,25 B = sp • (su • 0,90) = (0,05) • (10 • 0,90) = 0,45,
gdzie sp oznacza subiektywne prawdopodobieństwo, a su subiektywną uży teczność. Widzimy, że po uwzględnieniu subiektywnego prawdopodobieństwa (5% szans na podwyżkę) oraz współczynnika subiektywnej wartości podwyżki
574
Rozdział 12. W ydaw anie sądów i podejm ow anie decyzji
(10) ogólny wynik porównania nakazuje zdecydowanie wybrać firmę B, mimo że poprzednio minimalnie lepsza okazała się firma A. Decydent może jednak różnie oceniać szansę otrzymania podwyżki od każdego z pracodawców. Jeśli uzna, że u pracodawcy A „pech” będzie trzykrotnie mniej prawdopodobny, subiektywne prawdopodobieństwo podwyżki wzrośnie do 0,15, a decydent dojdzie do następujących wyników: A = sp • (su • 0,50) = (0,15) • (10 • 0,50) = 2,25 = 0,75 B = sp • (su • 0,90) = (0,05) • (10 • 0,90) = 4,05 = 0,45, co powinno skłonić go do przyjęcia oferty firmy A. Powyższy przykład, mimo uwzględnienia czynnika subiektywności ocen, jest wciąż mało realistyczny, ponieważ nie uwzględnia negatywnych skutków wyboru poszczególnych opcji. Nasze decyzje bardzo często wymagają zgody na ponoszenie kosztów lub tolerowanie negatywnych następstw, jeśli zyski lub następstwa pozytywne są szacowane jako wyższe. Przypuśćmy, że chcemy wynająć mieszkanie. Mamy do wyboru dwie propozycje, co jest, oczywiście, daleko idącym uproszczeniem, a bierzemy pod uwagę cztery kryteria: cenę, hałaśliwość, odległość od uczelni oraz ogólną czystość. Oba mieszkania oceniamy pod względem wszystkich kryteriów, przypisując im wartości na skali od -3 do +3 w zależności od szacowanych zalet lub wad. Na przykład, jeśli mieszkanie jest w spokojnej okolicy, otrzymuje ocenę +3 za hałaśliwość, a jeśli jest daleko od uczelni, otrzymuje ocenę -3 za odległość. Załóżmy, że mieszkanie A otrzymuje oceny: +1 za cenę, -2 za hałaśliwość, +3 za odległość (jest blisko!), +2 za czystość. Mieszkanie B otrzymuje oceny: +2 za cenę, +3 za hałaśliwość, -1 za odległość, +2 za czystość. Sumujemy teraz wszystkie oceny i otrzymujemy ogólną ocenę mieszkania A na poziomie +4, a mieszkania B na poziomie +6. Z tych obliczeń wynika, że powinniśmy wybrać mieszkanie B jako lepsze. Powyższy przykład opisuje pewną odmianę KTD, zwaną modelem kompensacyjnym. Zgodnie z tym modelem, dostępne nam opcje oceniamy według szeregu kryteriów, a następnie wybieramy to, co uzyskuje wyższą globalną sumę ocen. Zakładamy przy tym, że przyjęte kryteria równoważą się, czyli możliwa jest kompensacja braków w jednej dziedzinie zaletami w innych. Mieszkanie B wygrało, mimo że jest dość odległe od uczelni, ponieważ inne jego zalety zrównoważyły tę wadę. Gdyby jednak ocena za odległość była niższa (np. -3 zamiast -1), oba mieszkania uzyskałyby identyczną ocenę łączną +4. Decydent nadal by nie wiedział, co wybrać, bo wady i zalety obu mieszkań wzajemnie by się kompensowały. Model kompensacyjny może też opisywać przypadki znacznie bardziej skomplikowane, gdzie poszczególnym opcjom to warzyszą szacowane prawdopodobieństwa. Na przykład lekarz może rozważać zastosowanie jednej z dwóch możliwych terapii, z których każda - oprócz zalet ma negatywne skutki uboczne, a ponadto każda cechuje się określonym prawdopodobieństwem wyzdrowienia pacjenta. Prawdopodobieństwo to może być ocenione obiektywnie, np. na podstawie ogólnej wiedzy medycznej i raportów z poprzednich przypadków stosowania danej terapii, lub subiektyw nie, na podstawie intuicji lekarza i jego osobistego doświadczenia klinicznego. Mimo że koncepcja oczekiwanej subiektywnej użyteczności oraz model kompensacyjny wprowadzają istotne modyfikacje do klasycznej teorii decyzji, są to w dalszym ciągu mało trafne przybliżenia w stosunku do tego, jak ludzie
12.2. Podejmowanie decyzji
575
naprawdę podejmują decyzje. Koncepcje te przyjmują kilka istotnych założeń, przede wszystkim to, że decydent dysponuje pełną wiedzą o wszystkich dostępnych opcjach. Wiemy, że nasze decyzje zapadają w warunkach niepew ności co do tego, jakie opcje wchodzą w grę, a zwłaszcza jakie będą kon sekwencje wybrania każdej z nich. Dotyczy to w szczególności decyzji bardzo ważnych, takich jak wybór partnera życiowego, wybór zawodu lub typu kariery, wybór sposobu leczenia groźnego schorzenia itd. Niepewność jest charakterys tyczną cechą ludzkich procesów decyzyjnych, zatem żaden wiarygodny model teoretyczny nie może tego ignorować. Omawiane modele zakładają ponadto, że decydent dokładnie rozważa wszelkie dostępne mu opcje, porównując ich przy datność pod każdym możliwym względem. Tak nie jest choćby dlatego, że decydent może nie dysponować potrzebnymi zasobami, takimi jak czas i możli wości obliczeniowe. Wiele ważnych decyzji musimy podejmować natychmiast lub bez zbędnej zwłoki, w przeciwnym wypadku decyzja - choćby optymalna będzie bezużyteczna. Dotyczy to w szczególności tych decyzji, gdzie mamy do czynienia z aktywnie przeciwdziałającym przeciwnikiem (np. działania dowódcy na froncie) lub z niezależnym od nas procesem (np. leczenie groźnej choroby, działanie w warunkach klęski żywiołowej). Oprócz czasu, może nam też zabraknąć możliwości poznawczego przetworzenia wszystkich opcji wraz z wszelkimi konsekwencjami ich przyjęcia. Tak jest np. wtedy, gdy musimy w rozsądnym czasie zdecydować o wyborze kierunku studiów lub funduszu emerytalnego. Założenie o dysponowaniu zasobami poznawczymi, niezbędnymi do sprawdzenia każdej opcji, może być spełnione jedynie w przypadku dużych, wyspecjalizowanych zespołów, np. ekonomicznych. Bardzo wątpliwe jest też założenie o tym, że decydenci starannie szacują prawdopodobieństwo zdarzeń, nawet jeśli przyjąć, że są to szacunki subiek tywne. Ludzie oczywiście oceniają prawdopodobieństwo szans i zagrożeń, ale w poznaniu potocznym nie posługują się rachunkiem prawdopodobieństwa, lecz intuicją i osobistym doświadczeniem życiowym. Takich szacunków nie można podstawiać do wzorów jako realne wartości obliczeniowe. Omawiane modele przyjmują też założenie, że decydent zachowa się racjonalnie, to znaczy zawsze wybierze najlepszą opcję, nawet gdyby jej przewaga nad innymi była minimalna. Racjonalność rozumie się tu jako maksymalne przybliżenie do idealnego wzorca, przepisanego przez KTD, choć możliwe są inne sposoby rozumienia racjonal ności (Lewicka, 1993). W każdym razie przyjęcie założenia o racjonalności ignoruje fakty świadczące o intuicyjnej czy nawet irracjonalnej naturze ludzkich procesów decyzyjnych. Nie znaczy to, że wszystkie nasze decyzje są irracjo nalne, ale częstość występowania takich właśnie decyzji nakazuje dokładne zrewidowanie założeń, na których opierają się KTD, koncepcja SEU oraz model kompensacyjny. Ten ostatni przyjmuje jeszcze jedno, bardzo wątpliwe założenie, zgodnie z którym poszczególne kryteria oceny opcji wzajemnie się równoważą. Tymczasem wiemy, że niektóre kryteria mogą być ważniejsze od innych, np. odległość od uczelni może przeważać nad pozostałymi kryteriami wyboru mieszkania. Wybierzemy wówczas mieszkanie położone blisko, mimo że jest ono hałaśliwe i nieco droższe. Ponadto niektóre kryteria mogą działać inter akcyjnie, przez co nie można ich rozpatrywać w izolacji. Na przykład spokojna okolica może nam się wydawać ważną przesłanką wyboru mieszkania, co
576
Rozdział 12. W ydaw anie sądów i podejm ow anie decyzji
wstępnie dyskwalifikuje mieszkanie zbyt hałaśliwe. Ale jeśli takie mieszkanie jest położone blisko uczelni, możemy się na nie zdecydować, próbując uczyć się w spokojnej czytelni, a nie w domu. Decydenci biorą zazwyczaj pod uwagę całość sytuacji, a nie mechaniczną sumę punktów uzyskanych przez poszcze gólne opcje. Nie trzeba dodawać, że owe punkty nie są wynikiem żadnego rzetelnego pomiaru, a więc ich dodawanie jest zabiegiem metodologicznie bar dzo wątpliwym. Jest to podobne zastrzeżenie, jakie sformułowano w odniesieniu do szacowanego prawdopodobieństwa. Dopóki wartości metryczne nie są czymś więcej niż „intuicją przekształconą w liczby”, nie można ich wykorzystywać do operacji arytmetycznych.
12.2.2. Strategie w podejmowaniu decyzji Zastrzeżenia wobec KTD i jej odmian skłoniły psychologów do badania rze czywistych sposobów podejmowania decyzji przez ludzi. Celem tych poszuki wań było zastąpienie przepisów na racjonalną decyzję - empiryczną wiedzą na temat prawdziwych wyborów i ich uwarunkowań. Podejście to zaowocowało wykryciem szeregu prostych heurystyk, zwanych też strategiami, wspomagają cymi nas w podejmowaniu decyzji (Gigerenzer, Todd, 1999). Autorem jednej z pierwszych prac na ten temat jest Herbert Simon7 (1947). Opisał w niej tzw. strategię zadowolenia (satisficing strategy), polegającą na przeglądaniu dostępnych opcji w przypadkowym porządku i wyborze pierwszej, która nas wystarczająco satysfakcjonuje. Zdaniem Simona ludzie nie porównują wszystkich dostępnych opcji pod każdym możliwym względem w celu wybrania najlepszej, bo najczęściej jest to niewykonalne z braku czasu, wiedzy lub wol nych zasobów poznawczych. Autor odwołuje się tu do swej koncepcji ograni czonej racjonalności umysłu ludzkiego (bounded rationality, Simon, 1956, 1982). Wyobraźmy sobie wybór partnera życiowego (męża, żony) według zasad KTD lub modelu kompensacyjnego. Porównanie wszystkich potencjalnych kan dydatów byłoby tak czasochłonne, że właściwie niewykonalne. Poza tym po równanie wszystkich kandydatów i wybór najlepszego musiałby się odbyć w jednej chwili, ponieważ inne osoby dokonujące podobnego wyboru mogą nas ubiec, a skutki ich decyzji zasadniczo zmieniają warunki naszego wyboru. Dla tego racjonalne postępowanie wymaga w tej sytuacji tylko ustanowienia pew nych kryteriów wyboru, niekiedy bardzo skromnych (np. „nie pije i nie bije”), i zdecydowania się na pierwszego kandydata, który te kryteria spełnia. Na tym polega strategia zadowolenia. Jest mało prawdopodobne, aby tak dokonany wybór przyniósł nam kandydata idealnego, ale z pewnością przyniesie nam takiego, który nas zadowoli (por. Gigerenzer, Todd, 1999; Todd, Miller, 1999). Innym przykładem może być opisana przez Amosa Tversky’ego (1972) strategia eliminacji według aspektów. Wynajmując mieszkanie, możemy ustalić szereg kryteriów (cena, odległość od uczelni, hałaśliwość, czystość), a następnie przeglądać dostępne oferty tylko w tym celu, aby wyeliminować mieszkania niespełniające jednego z kryteriów. Jeśli zaczniemy od ceny, wstępnie odrzucimy 7 Herbert Simon (1916-2001) otrzymał w 1978 r. Nagrodę Nobla w dziedzinie ekonomii za prace nad teorią podejmowania decyzji.
12.2. Podejm ow anie decyzji
577
wszystkie oferty, niespełniające naszego kryterium (np. najwyżej 500 zł na miesiąc). Pozostałe oferty przeglądamy w celu wyeliminowania tych, które nie spełniają drugiego kryterium (np. czas dojazdu na uczelnię nie dłuższy niż 20 minut). Postępując w ten sposób, ograniczymy w bardzo znaczący sposób liczbę ofert. Te, które wygrają eliminacje, możemy następnie rozważyć według bardziej wyrafinowanej metody, np. stosując model kompensacyjny lub kierując się zasadą subiektywnej oczekiwanej użyteczności. Metoda eliminacji według aspektów może być zatem użyta jako przygotowanie do bardziej dogłębnych procesów decyzyjnych. Wyżej opisane strategie zawierają proste przepisy na dokonanie wyboru w sytuacji, gdy liczba opcji znacznie przekracza nasze możliwości dokładnego przeanalizowania każdej z nich. Co więcej, strategie te zawierają przepis na przerwanie poszukiwania, co trzeba uznać za ważną przesłankę ich skutecz ności. Heurystyki podejmowania decyzji mają bowiem nie tylko kierować naszymi poszukiwaniami, ale też umożliwić nam ukończenie poszukiwań w mo mencie, gdy ich kontynuowanie nie ma sensu. W przypadku strategii zado wolenia kończymy poszukiwanie wtedy, gdy znajdziemy coś, co może nie jest najlepsze, ale spełnia nasze oczekiwania. W przypadku eliminacji według aspektów raz odrzucona opcja nie jest brana pod uwagę w dalszych rozwa żaniach, nawet gdyby niektóre jej aspekty były bardzo atrakcyjne. Zdaniem badaczy działających w Instytucie Maxa Plancka w Berlinie jako tzw. grupa ABC (Gigerenzer, Todd, ABC Research Group, 1999), heurystyki podejmowania decyzji powinny być szybkie i oszczędne (fast and frugal). Pierwsze kryterium odnosi się do czasu, drugie - do złożoności i poziomu trudności operacji poznawczych niezbędnych do podjęcia decyzji. Przykładem prostej i oszczędnej heurystyki jest reguła „kieruj się tym, co najważniejsze” (take the best). Według autorów ludzie podejmując decyzje, kierują się pewnymi wskazówkami (kryteriami), przy czym nie wszystkie wskazówki są jednakowo ważne. Na przykład, wybierając mieszkanie, możemy kierować się ceną, czystością lub innymi przesłankami, ale dla kogoś o ograniczonych zasobach finansowych cena może być kryterium znacznie ważniejszym niż cała reszta. Opisywana strategia polega na tym, aby najpierw wybrać najważniejszą wskazówkę, a następnie porównywać opcje parami, odrzucając za każdym razem tę, której wartość ze względu na wybraną wskazówkę jest niższa lub nieznana (Gigerenzer, Goldstein, 1999). Jeśli nie potrafimy w ten sposób wybrać najlepszej opcji, bierzemy pod uwagę kolejną wskazówkę, która na liście rankingowej zajmuje drugie miejsce od góry pod względem ważności, i od nowa porównujemy opcje parami aż do skutku. W przypadku gdy żadna wskazówka nie doprowadzi do skutku, decydent wybiera opcję po prostu na chybił trafił. Inna heurystyka nosi nazwę „kieruj się tym, co się ostatnio sprawdziło” (take the last). Nie mając wiedzy, która wskazówka jest najważniejsza, albo nie mogąc się na to zdecydować, bierzemy pod uwagę kryterium sprawdzone w ostatniej próbie tego samego rodzaju (Gigerenzer, Goldstein, 1999). Na przykład przyjmując nowe osoby do pracy możemy faworyzować kandydatów, którzy cechują się otwartością i łatwością nawiązywania kontaktu z ludźmi, ponieważ ostatnio przyjęty kandydat miał takie właśnie cechy i sprawdził się w nowej firmie. Nie chodzi przy tym o to, że określone cechy są niezbędne na
578
Rozdział 12. W ydawanie sądów i podejm ow anie decyzji
danym stanowisku (np. sprzedawcy), lecz o to, że cechy te okazały się skuteczną przesłanką podjęcia ostatniej decyzji tego samego rodzaju. Grupa ABC porównuje umysł ludzki do przydatnej skrzynki narzędziowej (iadaptive toolbox), czyli zestawu modułów służących rozwiązywaniu konkret nych problemów (Gigerenzer, Todd, 1999). W tym wypadku chodzi o moduły rozwiązywania problemów decyzyjnych, a „szybkie i oszczędne” heurystyki to swoiste narzędzia, dzięki którym umysł przystosowuje się do stawianych mu wymagań. Zgodnie z kanonami psychologii ewolucyjnej, zakłada się, że przy stosowawcze są nie tylko struktury anatomiczne i procesy fizjologiczne w ciele człowieka, lecz również procesy poznawcze człowieka lub zwierzęcia. Stojąc wobec konieczności szybkiego podjęcia decyzji, a nie dysponując nieograni czonymi zasobami poznawczymi, człowiek musi uruchomić wyspecjalizowane narzędzia zmagania się z problemami decyzyjnymi. Dlatego stosuje reguły heurystyczne zamiast długich i skomplikowanych obliczeń. Autorzy argumen tują, że mimo swej prostoty heurystyki podejmowania decyzji nie są bardziej zawodne niż skomplikowane reguły wzorowane na klasycznej teorii decyzji. W jednym z badań (Czerlinski, Gigerenzer, Goldstein, 1999) porównano dwie proste heurystyki z dwoma bardziej „racjonalnymi”, ale i bardziej skompliko wanymi systemami podejmowania decyzji. Okazało się, że te pierwsze są znacznie szybsze, ale nie odstają od tych drugich ani pod względem popraw ności, ani pod względem uniwersalności, czyli możliwości wykorzystania w róż nych sytuacjach decyzyjnych. Do wyniku tego trzeba jednak podchodzić ostrożnie ze względu na metodologiczne ograniczenia eksperymentalnych badań nad podejmowaniem decyzji (paradygmat 12.2). Paradygm at 12.2
MOUSELAB: metoda laboratoryjnego badania procesów decyzyjnych Badanie strategii podejmowania decyzji jest zadaniem trudnym, ponieważ wymaga zastosowania zadań o dość dużym poziomie realizmu. Zadania takie wymagają jednak specjalistycznej wiedzy, co zawęża krąg potencjalnych osób badanych do grona ekspertów. Ponadto na podstawie badań chcielibyśmy poznać nie tyle deklaracje (czyli co badany sądzi, że zrobi), ile rzeczywiście dokonywane wybory. Nie zawsze jest to możliwe w badaniach „poiowych” , czyli prowadzonych w naturalnych warunkach z udziałem ekspertów. Z kolei badania laboratoryjne pozwalają uzyskać pełniejszy wgląd w proces podejmowania decyzji, ale często brakuje im trafności ekologicznej. Uznaną techniką badania procesów decyzyjnych w laboratorium jest tzw. MOUSELAB - procedura wymyślona przez Payne’a i współpracowników (Payne, Bettman, Johnson, 1988; zob. też: Rieskamp, Hoffrage, 1999; Wichary, 2003). Osoba badana widzi na ekranie monitora tabelę, przedstawiającą cztery opcje i kilka kryteriów ich oceny (ryc. 12.2). Mogą to być np. cztery firmy, z których każda cechuje się określonym poziomem takich wskaźników, jak: (1) wielkość zatrudnienia, (2) poziom inwestycji, (3) wielkość kapitału akcyjnego, (4) cena akcji, (5) znajomość i reputacja w branży oraz (6) wysokość wypłaconej w zeszłym roku dywidendy. Im wyższa pozycja danej firmy w odniesieniu do danego kryterium, tym
12.2. Podejmowanie decyzji
579
wyższą przypisuje się jej ocenę. Co więcej, każde z kryteriów ma określoną wagę, czyli doniosłość z punktu widzenia określonych potrzeb decyzyjnych. Na przykład, jeśli zadanie badanego polega na wybraniu firmy, która powinna w bieżącym roku uzyskać najlepszy wynik finansowy, stosunkowo ważne może być kryterium szóste (wysokość dywidendy) i pierwsze (wielkość zatrudnienia), a mniej ważne kryterium piąte (reputacja). Jeśli natomiast zadanie miałoby polegać na wybraniu firmy, która gwarantuje najlepszy zysk dla akcjonariuszy w długim okresie, bardzo ważne staje się kryterium drugie (poziom inwestycji). Wagi są przypisywane poszczególnym kryteriom (wskazówkom) przez eksperymentatora, który jednak nie czyni tego w sposób zupełnie arbitralny, lecz kieruje się ogólną znajomością problemu lub wynikami badań wstępnych. Czas
Ważność wskazówki
Wskazówka
0,36
0,68
0,48
0,82
0,79
0,56
zatrudnienie
inwestycje
kapitał akcyjny
cena akcji
reputacja
dywidenda
Firma A
Firma B
Firma C
Ryc. 12.2. Przykładowy ekran w procedurze MOUSELAB (za: Wichary, 2003, s. 22).
Osoba badana zna wagi poszczególnych wskazówek (kryteriów). Na przykład waga pierwszej wskazówki wynosi 0,36, co należy czytać jako warunkowe prawdo podobieństwo sukcesu w przewidywaniu wyniku końcowego na podstawie tej wskazówki. Największą wagę (0,82) przyznano wskazówce piątej (cena akcji), co oznacza, że kierując się nią, otrzymujemy dość dużą szansę wytypowania najlepszej firmy. Badany nie zna natomiast wartości firm ze względu na poszczególne wskazówki (kryteria). Może jednak łatwo uzyskać taką informację, klikając myszką w odpowiednim polu tabeli. W podanym przykładzie osoba badana dowiedziała się w ten sposób, że pierwsza firma otrzymała ocenę 4 (na skali od 1 do 5), jeśli chodzi o poziom inwestycji (waga 0,68). Odpowiednie pole jest odkryte dopóty, dopóki badany nie zechce pobrać innej informacji albo dopóki nie wyczerpie się limit czasu. Może np. sprawdzić, jakie oceny uzyskały pozostałe firmy ze względu na to samo
580
Rozdział 12. Wydawanie sądów i podejmowanie decyzji
kryterium. Dokonuje wówczas przeszukiwania według wskazówek. Może też sprawdzić, jak wypadła firma numer jeden ze względu na inne kryteria, co oznacza, że przeszukuje według opcji. W wybranym przez siebie momencie osoba badana dokonuje wyboru, wskazując w dolnym rzędzie tę firmę, która, jej zdaniem, przyniesie | największy zysk (lub spełni inne oczekiwania). Procedura MOUSELAB pozwala śledzić proces podejmowania decyzji. Ba dacz bierze pod uwagę m.in. następujące wskaźniki wykonania: • • • • • • • •
liczbę odkrytych pól, liczbę pól odkrytych dwukrotnie lub częściej, liczbę pól pominiętych, czas poświęcony na sprawdzenie każdego odkrytego pola, czas poświęcony na korzystanie z każdej wskazówki, czas poświęcony na badanie każdej opcji, średni czas poświęcony badaniu jednego pola, kolejność odkrywania poszczególnych pól (Rieskamp, Hoffrage, 1999).
Biorąc pod uwagę powyższe wskaźniki, próbuje się badać charakterystyczne wzorce korzystania ze wskazówek, świadczące o wykorzystaniu określonych strategii decyzyjnych. Strategie te można podzielić na kompensacyjne i niekompensacyjne (Wichary, 2003). W pierwszym przypadku decydent kieruje się łączną i w miarę pełną oceną wszystkich opcji, biorąc pod uwagę wszystkie wskazówki i ich ważność. Na przykład firma A może przegrywać z firmą B ze względu na kryterium nisko ważone, a wygrywać ze względu na inne kryterium, ważone znacznie wyżej. W takim wypadku firma A wygra z firmą B, ponieważ jej niedostatki w jednej dziedzinie są z nawiązką i kompensowane w drugiej dziedzinie. W przypadku strategii niekompensacyjnych, decydent kieruje się jedną wskazówką, zupełnie ignorując pozostałe, albo nie bierze pod uwagę faktu, że wskazówki różnią się ze względu na przypisywane im wagi. W procedurze MOUSELAB o tym, czy decydent użył raczej strategii kompensacyjnej, świadczą m.in. takie wskaźniki, jak większa liczba odkrytych pól i brak korelacji mię dzy czasem poświęconym danej wskazówce a jej ważnością. Taki wzorzec przeszu kiwania oznacza, że badany postępował systematycznie i nie darzył szczególnym przywilejem żadnej wskazówki. W ten sposób zapewnił sobie możliwość wykorzys tania zasady kompensacji, czego nie mógłby uczynić, gdyby z jakichś powodów zlekceważył niektóre wskazówki. Natomiast o użyciu strategii niekompensacyjnej 5 może świadczyć niewielka liczba odkrytych pól i wyraźna korelacja między czasem | poświęconym danej wskazówce, a jej ważnością. Takie zachowanie oznacza, że § badany wyraźnie preferował niektóre wskazówki, te mianowicie, które uznał za bar dziej diagnostyczne od innych. Szymon Wichary (2003), posługując się paradygma tem MOUSELAB, wykrył, że jednym z czynników skłaniających ludzi do preferowania strategii niekompensacyjnych jest pobudzenie emocjonalne. Rozróżnienie strategii kompensacyjnych i niekompensacyjnych, choć intere- : I sujące i teoretycznie nośne, jest jednak mało dokładne. W każdej z tych kategorii S I można wyróżnić szczegółowe strategie, które nie zawsze są możliwe do wykrycia za pomocą paradygmatu MOUSELAB. Dlatego ważniejsze od mechanicznego wykorzystania wskaźników wydają się próby jakościowej analizy procesu podejmowania decyzji. Jest to jednak procedura obarczona znacznie większym poziomem ryzyka dla badacza.
12.2. Podejmowanie decyzji
581
12.2.3. Teoria perspektywy Obecnie jedną z najbardziej popularnych koncepcji opisujących proces po dejmowania decyzji jest tzw. teoria perspektywy (prospect theory; Kahneman, Tversky, 1979), za którą jej współautor, Daniel Kahneman, otrzymał w 2002 r. Nagrodę Nobla w zakresie ekonomii8. Wiąże się ona ściśle z odkryciem przez Kahnemana i Tversky’ego tzw. efektu obramowania (framing effect), czyli wpływu mentalnej reprezentacji problemu decyzyjnego na treść podejmowanych decyzji (Kahneman, Tversky, 1984). Poznawcza reprezentacja problemu może ulec całkowitej lub gruntownej przemianie pod wpływem rodzaju słów użytych do jego opisu albo też w wyniku uwzględnienia szerszego kontekstu, w jakim przychodzi nam podjąć decyzję. Decydent nakłada na sytuację problemową coś w rodzaju ramy (Minsky, 1975), przez co specyficznie ją sobie przedstawia, a tym samym skłania się do swoistych wyborów. Kahneman i Tversky ilustrują efekt obramowania na przykładzie wyboru właściwej terapii. Wyobraźmy sobie, że kraj przygotowuje się do zwalczenia groźnej azjatyckiej epidemii, która może pozbawić życia 600 osób. Dostępne są dwa programy postępowania. Z wiedzy na temat tej choroby wiemy, że jeśli wprowadzimy w życie program A, ocaleje 200 ludzi. Jeśli natomiast przyjmiemy program B, możemy przewidzieć z prawdopodobieństwem 1/3, że wszystkie z 600 potencjalnych ofiar ocaleją, ale jest też prawdopodobieństwo równe 2/3, że nikt z tej grupy nie przeżyje. Po zapoznaniu się z tym problemem, 72% spośród próbki badanej złożonej ze 152 studentów wybrało program A (pewne ocalenie 200 osób z 600 zagrożonych), a tylko 28% badanych wybrało program B (mało prawdopodobne ocalenie wszystkich 600 zagrożonych, przy dość wysokim prawdopodobieństwie, że nikogo nie uda się uratować). Można więc powiedzieć, że większość badanych opowiedziała się za rozwiązaniem ostrożnym, unikając ryzyka, niezbędnego do uratowania wszystkich zagrożo nych. Innym studentom dano do rozwiązania ten sam problem, ale wyrażony inaczej. Powiedziano im mianowicie, że jeśli zostanie wdrożony program C, 400 osób umrze, a jeśli zwycięży program D, istnieje prawdopodobieństwo równe 1/3, że nikt nie umrze, ale trzeba się liczyć z prawdopodobieństwem równym 2/3, że umrze cała 600-osobowa grupa. W tym przypadku tylko 22% badanych zdecydowało się na wybór C, a 78% wybrało D. Zachowanie większości stu dentów można więc opisać jako ryzykowne, ponieważ uznali oni, że warto zaryzykować życie 600 osób, aby mieć 1/3 szansy na uratowanie wszystkich. Zwróćmy uwagę, że zwalczanie epidemii według programu A niesie iden tyczne skutki, jak przyjęcie programu C, a program B jest w swoich konsekwen cjach ekwiwalentny programowi D. Inaczej mówiąc, obie grupy osób badanych miały do czynienia z tym samym problemem decyzyjnym. Różnice dotyczyły powierzchownej struktury zadania, mianowicie użytych słów: zamiast o tym, ile osób uda się ocalić lub uratować, mówiono o tym, ile osób umrze. Jednak na głębszym, strukturalnym poziomie obie sytuacje decyzyjne były całkowicie izomorficzne. Mimo to, gdy mowa jest o pewności ocalenia 1/3 zagrożonych osób, badani zadowalają się tą gwarancją, chociaż w konsekwencji skazują na 8 Gdyby Amos Tversky nie zmarł w 1996 r., z pewnością otrzymałby tę nagrodę wraz z Kahnemanem.
582
Rozdział 12. W ydaw anie sądów i podejm ow anie decyzji
śmierć pozostałe 2/3. Natomiast gdy mowa jest o szansie uratowania wszystkich, badani podejmują ryzyko, choć wiedzą, że w konsekwencji, być może, nikogo nie uda się uratować, co jest prawdopodobne na poziomie aż 2/3. Najwyraźniej nałożona na problem „rama” napawa decydentów awersją wobec ryzyka lub przeciwnie - czyni ich podatnymi na podjęcie ryzyka. Dotyczy to nie tylko laików. Jak wykazali McNeil i współpracownicy (1982), również lekarze, wybierając sposób terapii, kierują się tym, czy w opisie przypadku mowa jest o szansach przeżycia, czy o ryzyku zgonu pacjenta. Efekt obramowania był wielokrotnie replikowany, zarówno w badaniach psychologicznych, jak i w pracach z zakresu ekonomii. Przykładem badań pierwszego rodzaju może być eksperyment Shafira (1993), w którym prosił badanych o podjęcie decyzji w hipotetycznej sprawie sądowej o przydział opieki nad dzieckiem po rozwodzie rodziców. Uczestnikom badania przedstawiono syntetyczne opisy osobowości i stylu życia obojga rodziców. Jedno z nich było bardziej zrównoważone i pod każdym względem przeciętne, również jeśli chodzi 0 więź emocjonalną z dzieckiem. Drugie cechowało się większą uczuciowością 1 lepszym kontaktem z dzieckiem, ale też niestabilnością emocjonalną. Interesujące, że druga osoba była częściej wskazywana jako ta, której należy •przyznać opiekę nad dzieckiem, jak też ta, której należy tej opieki odmówić. Po prostu, kiedy „obramowano” problem w kategoriach „przyznania opieki”, osoby badane kierowały się innymi kryteriami niż wtedy, gdy problem ujęto w kategoriach „odmówienia prawa do opieki”. Przykładem badań ekonomicz nych mogą być eksperymenty Lista (2004). W jednym z nich, wcześniej już cytowanym, dawał uczestnikom w prezencie atrakcyjny kubek lub dobrą cze koladę o tej samej wartości (ok. 6 dolarów). Następnie skłaniał ich do wymiany kubka na czekoladę lub odwrotnie. Okazało się, że decydujący wpływ na chęć dokonania wymiany miał fakt wcześniejszego otrzymania określonego przed miotu. Badani, którzy otrzymali kubek, nie byli skłonni wymieniać go na czekoladę, a badani, którym podarowano czekoladę, nie chcieli jej wymieniać na kubek. Z czysto ekonomicznego punktu widzenia zachowanie badanych było irracjonalne. Natomiast z psychologicznego punktu widzenia poczucie straty po utracie posiadanego przedmiotu najwyraźniej przewyższało satysfakcję z otrzy mania innego przedmiotu, obiektywnie tak samo wartościowego. Efekt obramowania jest przykładem szerszego zjawiska zwanego asymetrią pozytywno-negatywną (Kahneman, Tversky, 1979, 1984). Okazuje się, że ludzie inaczej wartościują zyski niż straty, nawet jeśli są one wyrażone w porów nywalnych jednostkach, np. pieniężnych. Jeśli dajemy dziecku 10 zł kieszonko wego, a następnie zwiększymy „pensję” do 20 zł, nie będzie ono dwukrotnie bardziej szczęśliwe ani dwukrotnie bardziej wdzięczne. Subiektywna wartość zysku jest mniejsza niż jego wartość obiektywna. Aby zatem uzyskać efekt dwa razy większej satysfakcji, trzeba by dziecku zwiększyć kieszonkowe z 10 zł do 25 zł, a może nawet do 30 zł. A teraz wyobraźmy sobie, że dziecko gubi pewną część kieszonkowego lub traci je, nie zwracając należytej uwagi na odbiór reszty przy dokonywaniu zakupów. Utrata 2 zł będzie na pewno dotkliwą karą, ale utrata 4 zł będzie karą więcej niż dwukrotnie bardziej dotkliwą. Dwukrotny przyrost straty powoduje więcej niż dwukrotnie większą frustrację, ponieważ subiektywne poczucie straty rośnie znacznie szybciej niż subiektywne poczucie zysku. Ilustruje to krzywa w kształcie S, obrazująca zależność między obiek
12.2. Podejm ow anie decyzji
583
tywnym zyskiem lub stratą a subiektywnym poczuciem zysku lub straty (ryc. 12.3). Po stronie zysków obserwujemy zjawisko szybkiego spłaszczania się krzywej, podczas gdy po stronie strat analogiczna zależność jest znacznie bardziej stroma. Oznacza to, że wraz ze wzrostem zysków coraz trudniej ludzi zadowolić, a wraz ze wzrostem strat coraz łatwiej ich sfrustrować (Kahneman, Tversky, 1979).
Ryc. 12.3. Subiektywna wartość zysku lub straty w zależności od wartości obiektywnej (za: Kahneman, Tversky, 1984).
Esowata krzywa z ryc. 12.3 dobrze opisuje zachowanie hazardzistów i mało doświadczonych inwestorów na rynku finansowym. Nawet nieznaczny spadek wartości akcji jest bardzo bolesny i skłania wielu graczy do nerwowej wyprzedaży. Takie działanie jest mało racjonalne z punktu widzenia reguły, że sprzedawać należy wtedy, gdy akcje są drogie, a kupować wtedy, gdy potanieją. Zwróćmy jednak uwagę, że frustracja po stracie jest najsilniejsza na samym początku procesu tracenia akcji na wartości. Potem, w punkcie zaznaczonym literą B (ryc. 12.3), subiektywny żal inwestorów jest mniej więcej proporcjo nalny do poniesionych strat. Z kolei wzrost wartości akcji przynosi satysfakcję mniejszą od oczekiwań, co skłania inwestorów do dokupywania tychże akcji w celu dopasowania się do oczekiwanego poziomu zadowolenia. Jednak powszechny run na akcje powoduje wzrost ich ceny, co dodatkowo zmniejsza satysfakcję z dokonanych inwestycji. Może to spowodować całkowite wycofanie się z inwestycji lub zwiększenie poziomu akceptowalnego ryzyka. To ostatnie
584
Rozdział 12. W ydaw anie sądów i podejm ow anie decyzji
może prowadzić do nabywania akcji obiecujących wydatne zyski za cenę bardzo dużego ryzyka straty.
12.2.4. Proces podejmowania decyzji Podejmowanie decyzji jest złożonym procesem psychicznym, w którym uczest niczą elementy poznawcze, emocjonalne i motywacyjne. Na jego przebieg wpły wa wiedza i doświadczenie decydenta, jak też czynniki kontekstualne. Ponadto przed podjęciem decyzji występują zjawiska przeddecyzyjne, a po jej podjęciu mechanizmy postdecyzyjne (Svenson, 1992, 1996). W fazie przeddecyzyjnej decydent wykonuje dwie czynności: definiuje problem decyzyjny i zbiera informacje na temat dostępnych opcji (Falkowski, Tyszka, 2001; Rohrbaugh, Shanteau, 1999; Svenson, 2003). Definiowanie pro blemu polega na określeniu rozbieżności między stanem obecnym a stanem docelowym; pod tym względem problemy decyzyjne nie różnią się od problemów innego rodzaju, rozwiązywanych przez ludzi (zob. rozdz. 11). Natomiast zbieranie informacji polega zarówno na wyszukiwaniu ich w otoczeniu lub w dostępnych źródłach, jak i przywoływaniu ich z pamięci. Jedno i drugie jest zazwyczaj bardzo wybiórcze i tendencyjne, ponieważ ograniczone możliwości umysłu ludzkiego nie zezwalają na systematyczny przegląd wszystkich danych (Simon, 1956, 1982). Poza tym ilość informacji gromadzonych w fazie przed decyzyjnej zależy od złożoności problemu: im większa, tym więcej zebranych informacji, ale tym niższa proporcja informacji zgromadzonych w stosunku do całości istotnych danych na temat problemu decyzyjnego (Payne, 1976). Bardzo złożone problemy przerastają nasze możliwości, więc mimo że w ich przypadku gromadzimy więcej danych, więcej też pozostaje poza naszym zasięgiem. Ilość poszukiwanych informacji zależy też krzywoliniowo od kompetencji decydenta (Falkowski, Tyszka, 2001). Decydenci niekompetentni zbierają mało informacji, bo nie wiedzą, gdzie i jak szukać, a ponadto nie umieją wykorzystać zdobytej wiedzy. Decydenci bardzo kompetentni wiedzą wystarczająco dużo, aby nie musieć dalej szukać, a jeśli szukają, to bardzo selektywnie, sprawdzając naj ważniejsze dane. Natomiast najwięcej danych gromadzą zwykle decydenci średnio kompetentni (Solomon, 1996). Kiedy już zdefiniujemy problem i zgromadzimy pewną ilość danych, uruchamiamy właściwy proces decyzyjny. Według Oli Svenson (1992, 1996), polega on na stopniowym wyróżnianiu (differentiation) jednej opcji spośród pozostałych. Decydent wstępnie godzi się na określoną opcję, niekoniecznie najlepszą, a później krok po kroku wyróżnia ją, czyli „faworyzuje” w stosunku do opcji konkurencyjnych. Jest to długi, kumulatywny proces, polegający na stopniowym gromadzeniu wiedzy na temat wyróżnionej opcji oraz utwierdzaniu siebie samego w przekonaniu, że jest to najlepsze wyjście. Wyróżnianie ma pewne znamiona procesu twórczego, ponieważ prowadzi niekiedy do wytwo rzenia nowych opcji, wcześniej nieistniejących lub niedostrzeganych. W jego wyniku może dojść do zmiany poznawczej reprezentacji problemu lub zmiany interpretacji znanych wcześniej faktów. Decydent nie zawsze wybiera spośród tego, co mu dostarczono, często sam wytwarza najlepszą opcję, a następnie
12.2. Podejm ow anie decyzji
585
wyróżnia ją i uzasadnia, co może prowadzić do zasadniczych zmian w strukturze jego wiedzy. Rohrbaugh i Shanteau (1999) argumentują, że zasadniczym elementem procesu decyzyjnego jest ocena ważności zebranych wcześniej informacji na temat dostępnych możliwości wyboru. Niektóre dane mogą być uznane za wysoce diagnostyczne, a inne za mniej ważne lub nawet nieistotne. Na przykład dla niektórych decydentów najbardziej diagnostyczną cechą kupowanego samochodu jest kolor karoserii, podczas gdy dla większości klientów jest to niezawodność marki lub cena. Zebranie potrzebnych informacji i uznanie ich za ważne przesłanki wyboru jest bezpośrednią przyczyną podjęcia decyzji. Co uznamy za informację ważną (istotną, diagnostyczną), zależy od trzech grup czynników: procesów poznawczych, doświadczenia i kontekstu (ryc. 12.4).
Ryc. 12.4. Czynniki wpływające na wykorzystanie istotnych informacji w procesie podejmowania decyzji (za: Rohrbaugh, Shanteau, 1999, s. 133).
Procesy poznawcze to przywołanie wiedzy z pamięci trwałej, a ponadto operacje myślenia i rozumowania. W ich wyniku dochodzi do uaktywnienia określonych heurystyk lub strategii decyzyjnych. Na przebieg tych procesów mają wpływ takie czynniki, jak: (1) poziom ryzyka, (2) pozytywne lub nega
586
Rozdział 12. W ydawanie sądów i podejm ow anie decyzji
tywne emocje, (3) „polityka” podejmowania decyzji, (4) korzystanie z informacji zwrotnych i (5) zasobność systemu poznawczego. Wysoki poziom ryzyka oznacza dotkliwe konsekwencje dla decydenta w wypadku dokonania niewłaściwego wyboru. W takiej sytuacji jesteśmy skłonni do decyzji bardziej zachowawczych, nawet kosztem możliwych zysków. Wcześniej jednak musimy trafnie ocenić poziom ryzyka, co nie zawsze jest możliwe, a jeśli jest możliwe - nie zawsze z tej możliwości korzystamy. Udowodniono np., że ostrzeżenia o szkodliwości działania używek nie zniechęcają ludzi do ich kupowania. Czynniki afektywne mają wpływ przede wszystkim na różnorodność poszukiwań i liczbę branych pod uwagę opcji. Afekt pozytywny sprawia, że szukamy dłużej i rozważamy więcej możliwości, natomiast emocja negatywna ogranicza różnorodność naszych poszukiwań (Kahn, Isen, 1993). Ponadto emocje negatywne skłaniają nas do stosowania prostszych, mniej wymagających strategii decyzyjnych (Wichary, 2003). Kolejny czynnik dotyczy tego, jaką „politykę” podejmowania decyzji uznamy za najwłaściwszą. Rohrbaugh i Shanteau (1999) wyróżnili trzy rodzaje takiej „polityki”, związane z trzema typami zachowań decyzyjnych; mowa o działaniach automatycznych, intuicyjnych i deliberatywnych. Decydent może szybko i automatycznie uruchomić pewien schemat działania, jeśli bieżąca sytuacja decyzyjna jest szczególnym przypadkiem szerszej klasy problemów, które skutecznie rozwiązywał już wcześniej. Z kolei „polityka” intuicyjna polega na uwzględnianiu najbardziej oczywistych przesłanek wyboru, z po minięciem przesłanek ukrytych, choć może ważniejszych. Działając intuicyjnie, decydent „wspomaga się” ponadto wyobrażeniem tego, co się stanie, jeśli przyjmie określoną opcję. Natomiast podejście deliberatywne charakteryzuje decydenta, który dokładnie rozważa wszelkie opcje i przesłanki wyboru. Dopiero w tym przypadku możemy mówić o stosowaniu wyrafinowanych strategii decyzyjnych. Czwarty czynnik wpływający na przebieg poznawczych procesów decyzyjnych to informacje zwrotne. Ich odbiór może skłonić nas do koncentracji na informacjach diagnostycznych, a odrzucenia danych nieistot nych. Jednak jeśli informacji zwrotnych jest za dużo, przeciążają nasz system poznawczy ze szkodą dla ogólnego wyniku procesu decyzyjnego. Zasobność systemu poznawczego, czyli piąty z omawianych czynników, jest ograniczona możliwościami pamięci roboczej i uwagi. Jeśli człowiek musi podejmować decyzję, mając zasoby poznawcze zajęte innymi czynnościami, posłuży się mniej wymagającymi strategiami albo nie uwzględni wszystkich informacji diagnos tycznych. Z modelu Rohrbaugh i Shanteau wynika, że uwzględnienie informacji diagnostycznych zależy nie tylko od procesów poznawczych, lecz również od doświadczenia decydenta i od kontekstu. Szczególną rolę odgrywa tu ekspertywność. Udowodniono, że eksperci stosują bardziej wydajne strategie decyzyjne, a także szybciej i trafniej rozpoznają, które informacje są bardziej diagnostyczne, a które można lub trzeba pominąć. Inne ważne zmienne indy widualne to temperament i osobowość decydenta (Wichary, 2003). Czynnild temperamentalne mogą decydować o akceptowalnym poziomie ryzyka i o pre ferencjach w zakresie stosowanych strategii decyzyjnych. Co do kontekstu, może on dotyczyć samego problemu decyzyjnego (np. efekt obramowania), globalnych uwarunkowań procesu decyzyjnego (np. ogólna sytuacja polityczna
12.2. Podejmowanie decyzji
587
w kraju wpływa na podejmowanie decyzji konsumenckich), a oprócz tego czynników środowiska, takich jak hałas, nadmiar bodźców lub presja czasu. Model Rohrbaugh i Shanteau (1999) pokazuje ponadto, z czego wynikają błędy decyzyjne i jaki mają charakter. Niektóre błędy wynikają z niewłaściwego przebiegu procesu poznawczego lub z działania czynników zakłócających ów przebieg. Człowiek może np. uruchomić działanie w trybie automatycznym lub intuicyjnym, podczas gdy wskazana byłaby raczej strategia deliberatywna. I odwrotnie - ktoś może się niepotrzebnie zaangażować w rozważanie wszystkich możliwości, podczas gdy najrozsądniej byłoby uruchomić automa tyczny tryb podejmowania decyzji. Inne błędy wynikają z działania czynników indywidualnych, np. z braku doświadczenia albo z jego nadmiaru. Wiadomo, że gdy warunki zadania są całkiem nowe lub niedawno zmienione, eksperci mogą zawieść, choć zazwyczaj radzą sobie lepiej od nowicjuszy. Ważną cechą indy widualną jest niezdecydowanie9 (indecisweness), czyli nieumiejętność dokona nia ostatecznego wyboru połączona ze skłonnością do powracania do już powziętych decyzji, a także nadmierne zaufanie do własnych sądów i możli wości. Druga z tych cech może prowadzić do niedoceniania ryzyka, związanego z niektórymi opcjami. Ostatnia grupa błędów to pomyłki wynikające z ignoro wania kontekstu lub z nadmiernego przejmowania się nim. Ktoś, kto nie uwzględnia globalnego kontekstu swoich działań, może podejmować decyzje krótkowzroczne, jak człowiek, który zainwestował na giełdzie cały swój majątek w przededniu krachu. Z drugiej strony niektóre elementy kontekstu rozumia nego bardzo wąsko, np. sposób „obramowania” problemu, również prowadzą do decyzji mało racjonalnych, a w każdym razie nieoptymalnych. Znajomość ro dzaju błędów, popełnianych przez ludzi w sytuacji wymagającej podjęcia de cyzji, a zwłaszcza znajomość przyczyn tych błędów, jest podstawą praktycznych oddziaływań w tym zakresie, np. treningów optymalnego podejmowania decyzji. W fazie postdecyzyjnej często rodzą się wątpliwości co do słuszności powziętego wyboru. Broniąc się przed nimi, decydent utwierdza się w przeko naniu o tym, że dobrze zrobił, co zwykle polega na podwyższaniu atrakcyjności wybranej opcji i deprecjonowaniu opcji odrzuconych. Są to zjawiska opisane przez Leona Festingera (1957) jako jeden z trzech przejawów dysonansu poznawczego. Dwa inne przejawy to wybiórczy stosunek do informacji napły wających z otoczenia (odrzuca się informacje niezgodne z przekonaniami) oraz poszukiwanie uzasadnienia dla własnych działań, jeśli były niezgodne z prze konaniami (np. „dorabia się” tym działaniom wewnętrzne motywy, wcześniej nieobecne). Tak zwany żal postdecyzyjny jest tym większy, im ważniejsza była podjęta decyzja, im trudniej było ją podjąć, im dłużej nad nią pracowaliśmy i im trudniej teraz przeciwdziałać jej negatywnym skutkom. Na przykład decyzja co do kupna mieszkania może spowodować rozległy żal postdecyzyjny, podczas gdy wybór szczoteczki do zębów raczej go nie wyzwoli. Według Svenson (1992, 1996), uniknięcie żalu, a także innych efektów postdecyzyjnych, takich jak uczucie zagubienia oraz próba zmiany już powziętej decyzji, jest możliwe, pod warunkiem że wybrana wcześniej opcja ulegnie konsolidacji. Podobnie jak wcześniejsza faza wyróżniania, konsolidacja polega 9 Przeciwieństwo tej cechy, czyli decisiveness, należałoby raczej oddać terminem „stanowczość”.
588
Rozdział 12. Wydawanie sądów i podejmowanie decyzji
na podnoszeniu wartości wybranej opcji, a obniżaniu wartości opcji odrzuco nych. W tym celu decydent dokonuje licznych manipulacji poznawczych, łącznie ze zmianą oceny atrybutów poszczególnych opcji, a także zmianą kryteriów wyboru. Przykładowo okoliczności wcześniej uznawane za pożyteczne, mogą zostać uznane za wady, i odwrotnie. O ile jednak wyróżnianie służy temu, aby sumaryczna wartość jednej z opcji przekroczyła próg umożliwiający podjęcie decyzji, o tyle konsolidacja służy wyłącznie temu, aby wyeliminować negatywne emocjonalne następstwa dokonanego wyboru i uniknąć strat związanych z ewentualną zmianą decyzji. Faza postdecyzyjna obejmuje też próby analizy informacji zwrotnych na temat podjętej decyzji: jej trafności, uwzględnionych kryteriów wyboru, wagi tych kryteriów itd. Refleksja tego rodzaju może przyczynić się do podejmowania bardziej racjonalnych decyzji w przyszłości. Postępowanie takie wymaga jednak przygotowania, wiedzy i wolnych zasobów poznawczych, dlatego zdarza się dość rzadko (Svenson, 2003).
12.3. Podsum ow anie Wydawanie sądów i podejmowanie decyzji to powszechne i codzienne czynności poznawcze. Opisane w tym rozdziale badania i koncepcje teoretyczne pokazują, że nasze sądy i decyzje są często nieracjonalne, a prawie zawsze dokonywane na podstawie raczej uproszczonych heurystyk niż wyrafinowanych obliczeń. Jest to konkluzja dość ważna dla rozważań na temat racjonalności umysłu ludzkiego. Z drugiej strony nasze sądy i decyzje nie mogą być całkiem nieracjonalne, bo byłoby to wbrew zasadzie, że umysł jest „narządem” umożliwiającym człowie kowi przystosowanie się do trudnych wymagań środowiska, najpierw natural nego, a potem społecznego. Gdyby nasze zdolności racjonalnego sądzenia i wy dawania decyzji były znikome, skuteczna adaptacja do środowiska byłaby utrudniona, a może nawet niemożliwa. Ludzie „od zawsze” musieli wydawać sądy i podejmować decyzje, należałoby zatem oczekiwać, że te zdolności będą u nich szczególnie dobrze rozwinięte. Nasuwa się wniosek, że wartość przystosowawczą mają właśnie upro szczone heurystyki, a nie wyrafinowane metody wywodzące się z modeli nauko wych. W historii naturalnej gatunku ludzkiego sądy, a zwłaszcza decyzje, mu siały być formułowane w bardzo krótkim czasie i w warunkach niedoboru informacji. W takim przypadku wartość przystosowawczą, a zarazem swego ro dzaju racjonalność, wykazują sposoby szybkie a skuteczne, jak to opisuje Gigerenzer i jego współpracownicy. Tego rodzaju sposoby wydają się właśnie racjonalne, jeśli zmienić kryterium racjonalności z abstrakcyjnego na ekolo giczne. W tym ujęciu racjonalne jest to, co zwiększa nasze szanse w zmaganiach z wyzwaniami stawianymi przez środowisko, a nie to, co wynika z abstrakcyj nych reguł wnioskowania i podejmowania decyzji.
R o zd zia ł
Język i mowa
Natur a j ęzy ka
590
Język jako system Poziomy języka
Kodowanie semantyczno-syntaktyczne 615
590
Kodowanie fonologiczne
594
Język a poznanie
599
Przyswajanie języka
602
Problem natywizmu
Rozumienie przekazów językowych
602
Stadia przyswajania języka
607
Dwujęzyczność i wielojęzyczność Mówienie
Planowanie mowy
609
Złamanie kodu
619
Rozbiór zdania
621
612
619
Budowa modelu sytuacyjnego i wniosko wanie 625 Podsumowanie
612
616
628
Język to system kodowania znaczeń poprzez wykorzystanie skończonego zbioru symboli (dźwięków mowy lub znaków pisma). Operowanie na symbolach podlega regułom gramatycznym, swoistym dla każdego języka naturalnego łub sztucznego. Mowa to używanie języka w celu przekazywania znaczeń oraz wpływania na zachowanie cudze łub własne. W innym ujęciu mowa to zdolność gatunku ludzkiego do przekazywania i odbierania komunikatów językowych za pomocą wyrażeń wokalnych łub znaków pisma.
Julien Offray de la Mettrie (1747/1984), XVIII-wieczny francuski filozof materialista, wyraził pogląd, że ludzie to w gruncie rzeczy „gadające automaty”. Sformułował tym samym klasyczną, arystotelesowską definicję, zawierającą najbliższy rodzaj (automaty) oraz specyficzną różnicę (gadające). Nie wchodząc w polemikę z autorem co do tego, czy rzeczywiście człowiek nie jest niczym więcej, jak tylko czymś w rodzaju bardzo skomplikowanego zegara, zgódźmy się z drugą częścią tej definicji. Cechą wyróżniającą gatunek ludzki jest bowiem zdolność do używania języka jako systemu kodowania znaczeń poprzez wy korzystanie symboli. Różne formy komunikacji używane przez zwierzęta tylko powierzchownie przypominają język ludzki. Nie wystarczy wydawać dźwięków lub gestów w celu wywołania odpowiedniej reakcji innego osobnika. Trzeba jeszcze te znaki (dźwięki, gesty) podporządkować abstrakcyjnym regułom gra matycznym, a przede wszystkim odnieść do rzeczywistości poprzez system znaczeń. Dźwięki mowy i znaki pisma to symbole, dzięki którym przekazujemy znaczenia, a nie tylko polecenia, prośby lub ostrzeżenia. Język i mowa są przedmiotem zainteresowania wielu nauk: językoznaw stwa, filozofii, antropologii, socjologii, kognitywistyki. Na gruncie psychologii językiem zajmują się specjaliści od rozwoju poznawczego, neuropsychologii, a przede wszystkim - psycholingwistyki. W tym rozdziale zajmiemy się językiem z perspektywy psychologii poznawczej, co oznacza koncentrację na proce sach przetwarzania informacji biorących udział w tworzeniu wyrażeń języko wych i ich analizie. Noszą one wspólną nazwę procesów przetwarzania języka (language processing). Język jest interesującym obiektem badań kognitywnych już choćby z tego powodu, że polega na szyfrowaniu i deszyfrowaniu myśli, co samo w sobie jest trudnym zadaniem intelektualnym. Język to medium, dzięki któremu myśli są przenoszone z jednego umysłu do drugiego. Transfer tego rodzaju nie może się dokonać bezpośrednio, ponieważ nie mamy dostępu do cudzych myśli. Potrzebny jest pośrednik w postaci skutecznego, zrozumiałego dla obu stron szyfru.
13.1. Natura języka 13.1.1. Język jako system Język pełni dwie podstawowe funkcje psychiczne: komunikacyjną i poznawczą. Funkcja komunikacyjna polega na tym, że język stanowi medium porozumie
13.1. Natura języka
591
wania się, czyli wzajemnego przekazywania sobie informacji. Porozumiewanie się może przybrać postać niewerbalną (mimika, pantomimika, postawa ciała itp.) lub parawerbalną (ton głosu, pauzy, intonacja), jednak większość treści przekazujemy za pośrednictwem komunikatów stricte językowych. Niekiedy sens komunikatu niewerbalnego jest sprzeczny z tym, co przekazujemy za pośrednictwem języka. Możemy np. powiedzieć dziecku: „Chodź tu zaraz, ty okropny brzydalu!”, co treściowo jest komunikatem negatywnym, ale dzięki miękkiej, pieszczotliwej artykulacji dziecko z radością do nas przybiega. Zasada prymatu komunikacji niewerbalnej nad werbalną może sugerować niezbyt duże znaczenie języka w życiu ludzi. Wniosek taki byłby jednak z gruntu niesłuszny. Po pierwsze, komunikaty niewerbalne nie muszą być sprzeczne z werbalnymi, zazwyczaj oba kanały wzajemnie się uzupełniają i wzmacniają. Po drugie, niewerbalnie sygnalizujemy dość ograniczony zasób treści, przede wszystkim emocje i stosunek do rozmówcy. Są to komunikaty ważne, ale ograniczone w swoim zakresie. W szczególności trudno byłoby gestami i tonem głosu za stąpić język w jego funkcji przekazywania wiedzy - jeszcze nikomu nie udało się stworzyć niewerbalnego podręcznika akademickiego. Natomiast funkcja poznawcza polega na wspomaganiu procesów przetwa rzania informacji, przede wszystkim myślenia i rozumowania, ale również percepcji, pamięci i kontroli poznawczej. Dzięki językowi możliwe jest myślenie pojęciowe, którego składnikami są właśnie pojęcia, sądy i schematy, a nie obrazy umysłowe. Myślenie zwierząt i małych dzieci przypuszczalnie przybiera postać wyłącznie obrazową, to znaczy polega na łączeniu w dłuższe lub krótsze ciągi nietrwałych form reprezentacji poznawczej, jakimi są wyobrażenia. Wraz z roz wojem języka tworzywem myślenia stają się reprezentacje trwałe, najpierw pojęcia konkretne, a od pewnej fazy rozwoju - pojęcia abstrakcyjne. Myślenie abstrakcyjne nie jest tożsame z używaniem języka, ale nie byłoby bez niego możliwe. Język pełni też ważną rolę w procesach kontroli poznawczej i sa mokontroli emocjonalnej. Człowiek może „panować nad sobą”, kierując pod swoim adresem rozmaite nakazy i zakazy. Pochodzą one przypuszczalnie od nakazów i zakazów kierowanych przez innych ludzi (głównie rodziców i opiekunów), ale w miarę rozwoju poznawczego interioryzują się i są uznawane za własne standardy postępowania. Proces ten nie byłby możliwy bez silnego zaangażowania poznawczych funkcji języka. Inny przejaw tej funkcji to kategoryzowanie, czyli zaliczanie obiektów do wybranych klas. Jest ono możli we bez języka, ale dopiero pojęcia umożliwiają dostrzeganie kategorii abstrak cyjnych i posługiwanie się nimi. Z innego punktu widzenia można podzielić funkcje języka na ekspresyjne i referencjalne. Funkcja ekspresyjna polega na wyrażaniu stanów podmiotu mówiącego. Mogą to być stany emocjonalne („czuję”) lub motywacyjne („chcę”), a także stany związane z oczekiwaniami wobec innych. Nakazy, za kazy, polecenia, groźby i inne wyrażenia mające na celu wpływanie na działanie innych ludzi lub zwierząt to przejawy ekspresyjnej funkcji języka. Pod tym względem język ludzki nie różni się jakościowo od zwierzęcych systemów komunikowania się. Różnice są w tym przypadku raczej ilościowe i wiążą się z bardziej złożoną psychiką człowieka i jego bardziej skomplikowanymi re lacjami społecznymi. Natomiast funkcja referencjalna polega na tym, że język może służyć do opisu rzeczywistości pozajęzykowej, a w szczególnych przy
592
Rozdział 13. Język i mowa
padkach do opisu samego siebie. Refereńcjalność to odnoszenie się do czegoś; w tym przypadku chodzi o odniesienie symbolu oznaczającego, czyli słowa, do przedmiotu oznaczanego, zwanego desygnatem (referent). Relacje między sło wem a przedmiotem tworzą znaczenie słowa, które jest poznawczą reprezenta cją desygnatu. Te trzy elementy: słowo, desygnat i znaczenie, składają się na tzw. trójkąt semantyczny (Ogden, Richards, 1923), stanowiący o istocie referencjalności języka jako systemu. Uważa się, że zwierzęce systemy komuniko wania się pozbawione są funkcji referencjalnej, przez co nie zasługują na miano języka. Pies potrafi zasygnalizować potrzebę wyjścia na spacer, ale nawet gdyby dysponował umiejętnością artykulacji, nie umiałby opowiedzieć, co się wy darzyło na spacerze. znaczenie
symbol
desygnat
zastępuje
Ryc. 13.1. Trójkąt semantyczny (za: Ogden, Richards, 1923). Symbol (słowo) zastępuje desygnat (rzecz oznaczaną), a jednocześnie ewokuje znaczenie, czyli uaktywnia umysłową reprezentację desygnatu. Znaczenie jest powiązane z desygnatem relacją referencjalną, czyli odniesieniową.
Język naturalny jest systemem niezwykle złożonym. Każdy dorosły użyt kownik języka naturalnego posługuje się co najmniej kilkoma tysiącami słów, a jeśli jest wykształcony, zasób jego słownictwa sięga 100 000 jednostek. Niektóre z nich są bliskoznaczne (synonimy, np. samochód - auto), inne mogą mieć różne znaczenie, ale tę samą formę (homonimy, np. zamek). Do tego trzeba dodać reguły gramatyczne, zwykle dość liczne i pełne wyjątków. Złożoność języków naturalnych sprawia, że do tej pory nie udało się zbudować sztucznej inteligencji, która by była w stanie prowadzić swobodną konwersację z czło wiekiem. Natomiast dla umysłu ludzkiego przetwarzanie języka wiąże się z koniecznością zaangażowania dużej części zasobów poznawczych, przede wszystkim pamięci roboczej (Just, Carpenter, 1992). Język jest ponadto systemem dynamicznym, to znaczy ciągle ewoluującym. Nieustannej zmianie podlegają znaczenia słów, ich koloryt emocjonalny, a nawet dopuszczalność niektórych struktur gramatycznych (ramka 13.1). Jest tak dlatego, że język z trudem poddaje się odgórnym kodyfikacjom i regulacjom. Język nie jest niczyją własnością albo też - jest zbiorową własnością wszystkich swoich użytkowni ków. W związku z tym językowo poprawne jest to, co większość użytkowników na mocy niepisanej umowy społecznej uzna za poprawne. Niektórzy szczególnie
13.1. Natura języka
593
wpływowi użytkownicy (np. pisarze) lub specjalnie powołane instytucje (np. Rada Języka Polskiego) mają w tej kwestii nieco więcej do powiedzenia, ale w gruncie rzeczy język ewoluuje niezależnie od odgórnych ustaleń i oficjalnych reguł jego użytkowania. Ramka 13.1
Dynamiczne zmiany znaczenia słów W głównym nurcie rozwoju języka słowa nie zmieniają swych znaczeń radykalnie, Jest to proces ciągły, którego pełne skutki można ocenić dopiero na przestrzeni wieków. Ale nawet wtedy zmiany dotyczą raczej kolorytu i otoczki emocjonalnej, a nie istoty rzeczy. Na przykład w dawnej polszczyźnie wyraz „kobieta” był obsce niczny: należało mówić „niewiasta” lub „białogłowa”. Dzisiaj pierwszy wyraz jest czysto opisowy, pozbawiony jakiejkolwiek ewaluacji, a dwa pozostałe wyszły z uży cia (z wyjątkiem wyrażeń żartobliwych). Tak czy inaczej, desygnatem tego obu pojęć jest dorosła osoba płci żeńskiej. Radykalne zmiany zachodzą natomiast w gwarach środowiskowych i slangach. Wyraz „laska” w znaczeniu „młoda dziewczyna” pojawił się stosunkowo niedawno i należy sądzić, że za kilka lat zaniknie. Zmiany w tym zakresie są tak szybkie, że nie nadążają za nimi nawet profesjonalni badacze. W momencie gdy jakiś slang zostanie opisany i skodyfikowany, zwykle przestaje już być aktualny. Interesujące, że od takich slangowych wyrazów tworzone są słowa pochodne. Na przykład „wylaszczyć się” oznacza czynność, którą wykonuje młoda dziewczyna, aby doraźnie zwiększyć swą atrakcyjność (makijaż, ubiór), np. przed „imprezą”. Można wyróżnić kilka najważniejszych przyczyn dynamicznej zmiany języka. 1. Zmiany polityczne, kulturowe i obyczajowe. Język się dynamicznie zmie nia wraz ze zmianami społecznymi, które rodzą nowe potrzeby komunikacyjne. Język musi nadążać za tymi, którzy się nim posługują. Dotyczy to w szczególności szybko zmieniających się dziedzin życia społecznego. 2. Eufemizacja i poprawność polityczna. Niektóre określenia wyszły z użycia ze względu na negatywne konotacje. Odchodzi się np. od nazw zawodów, które definiują status osoby, zastępując je określeniami definiującymi funkcję lub rolę społeczną. „Sprzątaczkę” zastąpiła „osoba sprzątająca”, prawdopodobnie dlatego, że sprzątaczką się jest (status), a sprzątającą się bywa (funkcja). Reguła ta nie dotyczy oczywiście zawodów o wysokim statusie społecznym. 3. Bariera my-oni. Gwary środowiskowe (młodzieżowa, więzienna) działają jako przeszkoda dla niewtajemniczonych. Tylko swoi rozumieją swój język, inni są automatycznie izolowani. Dla jednostki język środowiskowy jest przepustką do wybranej grupy, a dla środowiska - testem przynależności do swoich.
i
5
j
|
;
i
I
Kolejna cecha języka jako systemu to produktywność. Liczba słów, które mamy do dyspozycji, jest skończona, choć bardzo wielka; skończona jest również liczba reguł odmieniania słów i łączenia ich w zdania. Korzystając z tych ograniczonych zasobów, jesteśmy w stanie utworzyć nieskończoną liczbę zdań, a przez to przekazać nieskończoną liczbę komunikatów. Dzięki produktywności możemy przekazywać te same treści alternatywnie, zamieniając stronę czynną (np. „Małgosia pochwaliła Jasia”) na bierną (np. „Jaś został pochwalony przez
594
Rozdział 13. Język i mowa
Małgosię”). Możemy też używać omówień i parafraz: jeśli nie znamy jakiegoś terminu lub struktury zdaniowej, możemy to samo powiedzieć innymi słowami lub używając innych struktur. Może to zmienić koloryt wypowiedzi, ale nie zmienia zasadniczo jej sensu. Niekiedy produktywność prowadzi wręcz do twórczości językowej, jak wtedy, gdy nie dysponując gotowymi wzorcami zda niowymi lub nie znając właściwych słów, tworzymy struktury całkiem nowe, oryginalne i pomysłowo dostosowane do kontekstu. Przykłady twórczości językowej można zaobserwować przede wszystkim u małych dzieci w procesie przyswajania przez nie pierwszego języka, kiedy to bez żadnych zahamowań tworzą pomysłowe neologizmy (np. „Mama długo komputeruje”) lub oryginalne struktury zdaniowe (np. „Tata, co foczki ją?”, czyli „Tata, co jedzą małe foki?”).
1 3.1.2. Poziomy języka Każde użycie języka, czynne lub bierne, wymaga jednoczesnego przebywania na kilku piętrach architektury tego systemu. Są to poziomy funkcjonowania języka jako systemu, pokrywające się z poziomami naukowej analizy zjawisk językowych. Wyróżnia się co najmniej cztery poziomy funkcjonowania języka. Poziom fonologiczny obejmuje podstawowe jednostki budulcowe komunikatu werbalnego, czyli elementarne dźwięki mowy (głoski, fonemy). Każdy język naturalny buduje swoje przekazy, korzystając z kilkudziesięciu głosek (30-40). Ich układ, dość arbitralny w porównaniach międzyjęzykowych (np. dom = the house = la maison = la casa), ale wspólny dla wszystkich użytkowników konkretnego języka, pozwala budować słowa i inne jednostki znaczenia. Sama głoska jest symbolem pozbawionym znaczenia. Kod fonologiczny można za stąpić znakami pisma i choć oba sposoby kodowania znaczeń mają wiele wspól nego (np. w piśmie alfabetycznym głoskom odpowiadają litery), poznawcze mechanizmy przetwarzania języka są w każdym przypadku swoiste. Poziom semantyczny obejmuje ulepione z głosek lub znaków pisma elementarne składniki znaczenia. Są nimi przede wszystkim morfemy, czyli składniki słów, niosące pewną treść. Zazwyczaj konkretne słowo składa się z kilku morfemów. Na przykład w słowie „czytać” występuje rdzeń znaczenio wy, definiujący rodzaj czynności, oraz końcówka, w tym przypadku definiująca formę bezokolicznikową. W przypadku słów bardziej złożonych morfemów może być więcej. Na przykład w słowie „powiedziałbym” znajdziemy morfem-rdzeń, a ponadto morfemy definiujące czas przeszły, rodzaj męski i tryb przy puszczający. Morfemami zmieniającymi znaczenie słowa są też przedrostki (np. zawrócił) i przyrostki (np. zawróciłby). Na semantycznym poziomie analizy języka istotne staje się znaczenie, definiowane jako fragment wiedzy o świecie, wyrażonej pojęciami i sądami. Znaczenie jest czymś innym niż pojęcie i ka tegoria (zob. rozdz. 3). Kategoria to zbiór obiektów, np. kwadratów. Pojęcie to poznawcza reprezentacja tej kategorii, która może przybierać rozmaite formy: zbioru cech, prototypów, egzemplarzy itd. Natomiast znaczenie pojęcia to jego treść, czyli to wszystko, co wiemy o kategorii reprezentowanej przez pojęcie. Wiedza ta może przyjmować różne postaci i formy. Może być jawna, albo niejawna; może być wyrażona w postaci pojęć, sądów lub schematów. Może być modyfikowana pod wpływem doświadczeń lub względnie trwała. Może dotyczyć
j
\ \ j
j j j i
13.1. Natura języka
595
faktów, wtedy mówimy o znaczeniu denotacyjnym, lub emocji i skojarzeń, wtedy mówimy o znaczeniu konotacyjnym. Denotacja słowa „dom” to po prostu „budynek, w którym się mieszka”. Konotacja tego słowa to bogata sieć skojarzeń, odwołujących się do psychologicznych i społecznych funkcji domu (ciepły, opiekuńczy, integrujący). Jeśli znaczenie określonego pojęcia jest frag mentem wiedzy, może być u każdego człowieka nieco inne. Gdy chodzi o zna czenie denotacyjne, różnice te są niewielkie, ponieważ język nie mógłby pełnić funkcji komunikacyjnej bez daleko posuniętej wspólnoty znaczeń. Natomiast zróżnicowanie międzyosobnicze w zakresie znaczeń konotacyjnych zwykle jest bardzo duże. Poziom syntaktyczny (składniowy) składa się z fraz i zdań, połączonych według reguł gramatyki. O ile słowo (a właściwie morfem) jest elementarną jednostką znaczenia, o tyle fraza, a zwłaszcza zdanie, jest elementarną jednostką sensu. Samo słowo „powiedzieć” ma określone znaczenie, ale nie ma sensu chyba że sens nadają mu słowa wypowiedziane wcześniej i ogólny kontekst sytuacyjny. Natomiast w przypadku zdania: Mógłbym ci coś powiedzieć,
mamy już do czynienia z pełnym sensem: ktoś komuś komunikuje chęć lub ewentualność przekazania jakiejś wiadomości, jeśli słuchacz spełni bliżej nie określony warunek. Zdanie jest jednostką sensu, ponieważ zawiera przynaj mniej dwa komunikaty: o sprawcy (podmiot) i o czynności (orzeczenie); do datkowo zdanie może zawierać informacje o okolicznościach zdarzenia (miejs cu, czasie itd.), a także o atrybutach sprawcy (np. pilny uczeń) lub czynności (iżmudna nauka). Formalnie rzecz biorąc, zdanie składa się z frazy nominalnej, określającej sprawcę i jego atrybuty, oraz frazy czasownikowej1, określającej czynność i jej okoliczności. Strukturę zdania możemy więc zapisać w postaci tzw. drzewka derywacyjnego (ryc. 13.2). W przypadku zdania: „Pewien chłopiec kupił cukierek w sklepie” (por. Kurcz, 2000), istota rzeczy sprowadza się do komunikatu: „Chłopiec kupił”. Te dwa elementy: sprawca i czynność, tworzą główne konary drzewa. Pozostałe składniki zdania są reprezentowane przez pomniejsze gałęzie, co sugeruje, że nie są to konieczne składniki zdania; można je jak gdyby „oderwać” od składników głównych. Drzewko derywacyjne (czyli utworzone w wyniku odrywania) pokazuje ponadto, w jaki sposób struktura syntaktyczna zdania może być tworzona z elementów składowych. Całe zdanie składa się z frazy nominalnej i czasownikowej, ale składnikiem tej ostatniej jest osobna fraza nominalna. Co więcej, struktura ta może być dalej rozszerzana, np. wtedy, gdy tworzymy zdania rekurencyjne typu: „Pewien chłopiec kupił cukierek w sklepie, który był na skrzyżowaniu, które było pozbawione sygnalizacji, która ...”. Poziom pragmatyczny dotyczy społecznych aspektów języka, a właściwie jego użycia w funkcji komunikacyjnej. O ile wcześniej ważne były reguły wewnątrzjęzykowe, czyli zasady lepienia słów z głosek i reguły tworzenia zdań ze słów, o tyle teraz potrzebne jest wyjście poza system języka. Istotna staje się bowiem kwestia, co, komu i w jakim celu chcemy powiedzieć. A to w prze1 W literaturze można też spotkać określenia „fraza rzeczownikowa” (noun phrase) i „fraza werbalna” (verbal phrase). Jednak polskie słowo „werbalna” oznacza po prostu „słowna”, podczas gdy sens tego terminu określa angielski termin verb, czyli czasownik.
596
Rozdział 13. Język i mowa
Rz
FPrz
Prz
Pewien
chłopiec
kupił
cukierek
w
Rz
sklepie
Ryc. 13.2. Formalna budowa zadania: „Pewien chłopiec kupił cukierek w sklepie”, przedstawiona w postaci drzewka derywacyjnego (za: Kurcz, 2000). ZD - zdanie, FN - fraza nominalna, FC - fraza czasownikowa, Det - określnik, Rz - rzeczownik, Cz - czasownik, FPrz - fraza przyimkowa, Prz przyimek.
ważającej mierze zależy od kontekstu oraz od postrzeganych przez nas cech odbiorcy. Weźmy np. zdanie: „Idę!”. Mimo swej prostoty, jest to pełne zdanie, z domyślnym podmiotem (ja idę). Na poziomie syntaktycznym znaczy ono tylko tyle, że podmiot domyślny idzie. Natomiast na poziomie pragmatycznym może nieść mnóstwo różnorodnych znaczeń, np. ostrzeżenie („Uważaj, bo idę”), wyrzut („Ja idę, a ty ciągle siedzisz i nic nie robisz”), chwalenie siebie samego („Idę, choć mógłbym ciągle leniuchować”). Odbiorca, aby zrozumieć komunikat zgodnie z intencją nadawcy, musi intensywnie korzystać z kontekstu języko wego (inne zdania tego samego komunikatu) oraz pozajęzykowego (sytuacja, w której zachodzi komunikacja). Nadawca zakłada, że odbiorca korzysta ze wskazówek kontekstualnych i odpowiednio konstruuje wypowiedź. Z kolei odbiorca zakłada, że nadawca tworzy wypowiedź zgodnie ze swoimi intencjami
13.1. Natura języka
597
i z własnym rozumieniem możliwości odbiorcy. Te obustronne założenia mogą być oczywiście fałszywe, co prowadzi do zrozumienia niepełnego lub opacznego. Pragmatyczny poziom języka jest szczególnie istotny w przypadku wyrażeń ironicznych czy sarkastycznych, np. „No to pięknie!”. Konsekwencją istnienia czterech poziomów języka jest przede wszystkim bardzo duże obciążenie systemu poznawczego podczas mówienia, pisania, słuchania lub czytania. Przetwarzanie języka wymaga jednoczesnej kontroli wszystkich czterech poziomów, choć oczywiście nie każdy poziom wymaga jednakowo starannej kontroli poznawczej. Najściślej trzeba kontrolować komunikat na poziomie pragmatycznym, bo w przeciwnym wypadku nie będzie porozumienia. Niższe poziomy wymagają słabszej kontroli, ponieważ tworzenie syntaksy, przywołanie z pamięci słów i znaczeń, a zwłaszcza „lepienie” słów z głosek - to procesy w dużym stopniu automatyczne. Dowodem tego jest zjawisko polegające na zakłóceniu czynności mówienia w wyniku świadomego zastanawiania się nad regułami poprawności wypowiedzi. Im mniej myślimy o tych regułach, tym płynniej mówimy, co jest jednym z definicyjnych wskaźników czynności automatycznej. Nie znaczy to, że na niższych poziomach nie występuje kontrola poznawcza albo że jest ona z natury rzeczy szkodliwa. Chcąc wyrazić coś istotnego na poziomie pragmatycznym, np. ironię lub wątpliwość, operujemy subtelnymi zmianami w tonie głosu. Aby to było możliwe, poziom fonologiczny musi podlegać przynajmniej częściowej kontroli. Kontrolowany musi być również poziom semantyczny, ponieważ dobór słów nawet bliskoznacznych - zmienia sens komunikatu. Czym innym jest powie dzieć o kimś, że jest „odważny”, a czym innym, że „brawurowy”. Również poziom syntaktyczny jest podporządkowany pragmatycznemu, ponieważ operując odpowiednimi strukturami gramatycznymi, możemy uzyskać pożądane skutki na poziomie pragmatycznym. Inny efekt uzyskujemy, mówiąc: „Jaś kocha Małgosię”, a inny poprzez zdanie: „Małgosię kocha Jaś” (a nie np. Bartek). Jeżeli użytkownik języka musi jednocześnie kontrolować cztery poziomy komunikatu językowego, a ponadto radzić sobie z tym zadaniem w czasie rzeczywistym, nieuniknione wydaje się przeciążenie systemu poznawczego. Dotyczy to w szczególności „wąskich gardeł” systemu, takich jak selektywna uwaga lub pamięć robocza (Baddeley, Gathercole, Papagno, 1998; Just, Carpenter, 1992). Takie same skutki w postaci przeciążenia obserwujemy w przy padku rozwiązywania trudnych, złożonych problemów. Dlatego nie może nas dziwić fakt, że poziom kompetencji językowych koreluje z poziomem inteligen cji ogólnej, a wiele testów inteligencji składa się z zadań wymagających rozumienia rzadko używanych pojęć, dostrzegania subtelnych różnic w zna czeniu pojęć lub obróbki złożonych komunikatów werbalnych. Cztery wyróżnione poziomy języka to oczywistość, przyjmowana przez wszystkich badaczy tego zjawiska. Niezależnie od tego niektórzy językoznawcy, z Noamem Chomskim na czele, wyróżniają dwie warstwy funkcjonowania języka: strukturę powierzchniową (surface structure) i strukturę głęboką (deep structure). Struktura powierzchniowa to rzeczywiste zdanie utworzone według obowiązujących reguł gramatycznych. Natomiast struktura głęboka to abstrak cyjna postać tego zdania, wyrażona w postaci drzewka derywacyjnego (por. ryc. 13.2). Każda struktura głęboka może być zapisana w postaci pewnej liczby równoważnych zdań, funkcjonujących na poziomie powierzchniowym. Na przy
598
Rozdział 13. Język i mowa
kład zdanie: „Pewien chłopiec kupił cukierek w sklepie”, może być wyrażone w postaci zdań równoważnych, np. „Pewien chłopiec kupił w sklepie cukierek” lub „Cukierek został kupiony w sklepie przez pewnego chłopca”. Struktura powierzchniowa jest jak gdyby implementacją tego, co zapisano w strukturze głębokiej. Przekształcenie struktury głębokiej w powierzchniową jest możliwe dzięki regułom transformacji (transformational rules). Ze. względu na sposób ujęcia problemu poziomów języka, koncepcja Chomsky’ego nosi nazwę teorii gramatyki generatywnej. Koncepcja struktury powierzchniowej i głębokiej zyskała sobie tak dużą popularność, że niektórzy badacze - zwłaszcza psycholodzy i kognitywiści dokonali swoistej nadinterpretacji tez Chomsky’ego. Według tych ujęć, struktura powierzchniowa jest jak gdyby implementacją sensu zapisanego w strukturze głębokiej. Każda struktura głęboka może być wyrażona w nie zliczonej ilości zdań, przede wszystkim w różnych językach naturalnych, ale również wewnątrz każdego, pojedynczego języka naturalnego. Można porównać strukturę głęboką do wzoru matematycznego, do którego da się podstawić różne wartości. W zależności od tego, co podstawimy za x lub y, wynik obliczeń będzie inny, jednak formuła wzoru pozostanie niezmienna. Z perspektywy mówcy konieczne jest przekształcenie „głębokiego” znaczenia na „powierzchniową” strukturę syntaktyczną zdania, natomiast z punktu widzenia słuchacza koniecz na jest transformacja w przeciwnym kierunku. W każdym razie komunikacja językowa może nastąpić tylko wówczas, gdy obie strony interakcji zejdą na poziom struktur głębokich, a jednocześnie użyją odpowiednich reguł trans formacji, aby wygenerować stosowne struktury powierzchniowe. Gdyby obie strony pozostawały tylko na poziomie głębokim, nie byłoby porozumienia, ponieważ nie można by użyć przenośnika sensu (medium), jakim jest wyrażenie językowe. Gdyby natomiast obie strony pozostawały tylko na poziomie struktur powierzchniowych, nie mogłyby utworzyć poznawczej reprezentacji komunika tu, co również oznaczałoby brak porozumienia. Tak więc oba poziomy są niezbędne, choć jeden z nich, czyli poziom struktur głębokich, wydaje się bardziej pierwotny jako generator struktur powierzchniowych. Zgromadzono wiele empirycznych dowodów słuszności tej koncepcji. Na przykład powtórne opowiadanie tego samego zdarzenia prawie zawsze odbiega od pierwszej wersji pod względem użytych słów i struktur syntaktycznych, a niekiedy te rozbieżności są zasadnicze. Opowiadając jakąś historię, za każdym razem generujemy nowy zestaw struktur powierzchniowych, które jednak z wyjątkiem, gdy zawodzi nas pamięć - dość ściśle odpowiadają strukturze głębokiej, czyli prawdziwemu sensowi tego, co się wydarzyło. Umysł ludzki nie przechowuje opisów przeszłych zdarzeń w postaci utrwalonych, jak gdyby „zamrożonych” struktur zdaniowych. Byłoby to prawdopodobnie zbyt obciąża jące dla pamięci. Umysł przechowuje sens zdarzenia na poziomie głębokim, co wystarczy, aby w razie potrzeby wygenerować odpowiadające temu sensowi struktury powierzchniowe. Inny dowód to zapominanie: już w krótkim czasie po przeczytaniu fragmentu tekstu nie jesteśmy w stanie dosłownie go zreprodukować, choć pamiętamy jego sens i znaczenie. Potrafimy więc odtworzyć ten sens, ale już z użyciem innych struktur powierzchniowych. Zapominamy przede wszystkim struktury powierzchniowe i one właśnie muszą być powtórnie wy generowane, podczas gdy struktury głębokie pozostają w zasadzie niezmienne.
13.1. Natura języka
599
13.1.3. Język a poznanie Jeśli język jest wehikułem, dzięki któremu myśli przechodzą z jednego umysłu do drugiego, pojawia się problem wzajemnych relacji języka i poznania, a w szczególności - relacji mowy i myślenia. Szczególnie interesująca jest kwe stia determinacji: czy pojęcia i struktury języka kształtują nasze myślenie i inne procesy poznawcze, czy też forma i treść poznania jest od języka niezależna, a jedynie w nim wyrażana. Zgodnie z hipotezą determinizmu językowego, zwaną również hipotezą Sapira-Whorfa, język zasadniczo wpływa na to, jak spostrzegamy rzeczywistość, przetwarzamy informacje, formułujemy sądy lub korzystamy z zasobów pamięci. Benjamin Lee Whorf (1956), uczeń Edwarda Sapira (1958), uchodzi za twórcę tego podejścia. Prowadził on badania nad językami rdzennych mieszkańców Ameryki Północnej i odkrył, że wielu pojęć nie da się przełożyć z jednego języka na inny. Na przykład niektóre języki mają to samo słowo na oznaczenie różnych kolorów, inne nie odróżniają zbyt jasno przeszłości od teraźniejszości i przyszłości, a jeszcze inne dysponują kilkunas toma określeniami różnych rodzajów tego samego zjawiska (np. śniegu), choć nie używają słowa oznaczającego kategorię nadrzędną. Na tej podstawie wy snuto wniosek, że sposób, w jaki mówimy, determinuje to, jak widzimy świat i myślimy o nim. Język i jego struktury to jak gdyby koleiny, w których toczy się ludzkie poznanie. Nie sposób poznawczo wyjść poza te koleiny, chyba że poprzez opanowanie innego języka, czyli przeskok do innych kolein. Oprócz danych z obserwacji etnologicznych, Sapir i Whorf używali argu mentów rozumowych. Uważali, że języki ludzkie tak bardzo się między sobą różnią, że nie jest możliwe, aby odzwierciedlały tę samą rzeczywistość spo łeczną. Postawę tego rodzaju nazwano relatywizmem językowym: nie ma dwóch identycznych języków, więc nie ma dwóch jednakowych sposobów poznawcze go reprezentowania rzeczywistości, przede wszystkim społecznej. Wszystko jest względne, zarówno językowe sposoby wyrażania treści, jak też niejęzykowe sposoby spostrzegania i interpretowania świata. Drugi argument odwołuje się do porządkującej, kategoryzującej funkcji języka. Rzeczywistość ma być „kalejdoskopowym strumieniem wrażeń”, któremu tylko język może nadać sens, znaczenie i porządek. Ale nakładając na rzeczywistość swój system ka tegorii, język zniekształca nasz sposób poznania świata. Nie ma poznania poza językiem, a ponieważ każdy język ma swoistą strukturę i siatkę pojęć, poznanie musi być przez język filtrowane. Właśnie ten argument legł u podstaw stano wiska zwanego determinizmem językowym. Danych potwierdzających hipotezę determinizmu językowego szukano przede wszystkim w badaniach międzykulturowych. Szczególną wagę przy wiązywano do różnic międzykulturowych w zakresie spostrzegania i nazywania kolorów, wychodząc z założenia, że jeśli język wpływa na tak elementarny pro ces poznawczy, jak percepcja barw, z pewnością determinuje procesy bardziej złożone. Stosunkowo wcześnie wykazano, że ludzie żyjący w różnych kulturach i posługujący się różnymi językami nie tylko inaczej nazywają kolory, ale też gdzie indziej sytuują granice między nimi (Gleason, 1961). Na przykład granica między zielonym a niebieskim może być przesunięta bardziej ku zielonemu lub bardziej ku niebieskiemu. W języku plemienia Berinmo nie ma w ogóle roz różnienia niebieskiego i zielonego, jest natomiast nieznana językom europej-
600
Rozdział 13. Język i mowa
skim granica między kolorami „nol” i „wor” (Roberson, Davies, Davidoff, 2000). Okazało się jednak (Berlin, Kay, 1969), że efekt przesuniętych granic nie dotyczy barw ogniskowych, czyli „czystych”, a jedynie barw pochodnych lub mieszanych, co skłania raczej do odrzucenia hipotezy Sapira-Whorfa. Badania tego rodzaju, niezależnie od wyników, są podatne na krytykę ze względu na przyjętą metodologię: osoby badane prosi się o nazywanie pokazywanych im kolorów, a badacz sprawdza, które barwy są określane identycznym słowem, a które różnymi słowami. Można przyjąć, że jeśli badany określa niebieski i zielony różnymi słowami, musi odróżniać te barwy na poziomie percepcji, ale jeśli używa dla nich tej samej nazwy, niekoniecznie widzi obie barwy tak samo. Problem ten rozwiązano w badaniach prowadzonych pod kierunkiem Debi Roberson (Roberson i in., 2000). Osoby badane - Europejczycy i przedstawiciele plemienia Berinmo, żyjącego na Nowej Gwinei - nie nazywały kolorów, lecz kategoryzowały barwne paski. Wynik tego badania okazał się zgodny z hipotezą relatywizmu językowego: przedstawiciele różnych kultur odmiennie spostrze gają barwy (ramka 13.2). Wykazano też, że u pacjentów z afazją polegającą na utracie dostępu do nazw kolorów znacznie pogarsza się różnicowanie percepcyjne kolorów (Roberson, Davidoff, Braisby, 1999).
j j j
j j I
j j \
j j i j
i j
Ramka 13.2
Percepcja kolorów w epoce kamiennej
Roberson, Davies i Davidoff (2000) wybrali do badań plemię Berinmo, żyjące w dorzeczu rzeki Sepik (Papua-Nowa Gwinea). Jest to plemię pierwotnych łowców i zbieraczy, nietknięte, zdaniem autorów, wpływami cywilizacji zachodniej. Berinmo określają kolory pięcioma nazwami, ale ich zakresy znaczeniowe są inne niż w języku angielskim. Nie ma oddzielnej nazwy dla koloru niebieskiego i zielonego: obie barwy są określane tym samym słowem „nol”. Istnieje natomiast osobna nazwa „wor”, używana na określenie koloru, który my byśmy nazwali zielono-żółto-pomarańczowym. Osobom badanym, Anglikom i przedstawicielom plemienia Berinmo, pokazy wano przez 30 sekund barwny pasek, polecając, aby go zapamiętać. Następnie pokazywano im jednocześnie dwa paski o różnej, ale podobnej barwie, z poleceniem, aby wskazać ten, który jest identyczny z paskiem wcześniej zapamięty wanym. Zadanie nie wymagało więc nazywania barw, lecz podejmowania wobec nich decyzji kategoryzacyjnych. Autorzy interesowali się szczególnie tym, co się stanie, gdy żaden z pasków nie pasuje do zapamiętanego wzorca. Badany może wtedy mimo wszystko wskazać jeden z pasków, czyli popełnić błąd kategoryzacji. Przypuśćmy, że wzorcem był pasek o barwie niebieskiej, a później pokazywana para obejmowała pasek niebieski, ale o innym odcieniu, oraz zielony. Jeśli ktoś dobrze odróżnia niebieski od zielonego, wybierze raczej pasek niebieski o innym odcieniu niż zielony. Pierwszy należy bowiem do tej samej kategorii, co wzorzec, a drugi jest przedstawicielem zupełnie innej kategorii barw. Tak właśnie zachwywali się biorący udział w badaniu Anglicy. Przedstawiciele plemienia Berinmo wybierali z równą częstością niebieski i zielony, bo to dla nich ten sam kolor „nol”. Sytuacja odwróciła się, gdy wzorcem do zapamiętania był pasek w kolorze „wor”, a dwa paski wymagające decyzji kategoryzacyjnej należały do kategorii „wor” i „nol”. Tym
i
;
\
: i
13.1. Natura języka
601
razem ludzie z plemienia Berinmo nie mieli wątpliwości: wybierali pasek w kolorze „wor”, identyczny kategorialnie w stosunku do wzorca, choć różny pod względem odcienia. Natomiast Anglicy, nie odróżniając „wor” od „nol”, wybierali oba paski z jednakową częstością. Autorzy badali ponadto, jak szybko przedstawiciele obu kultur uczyli się rozróżniać barwy należące do różnych kategorii. Anglicy potrzebowali średnio 3,2 prób, aby nauczyć się poprawnie odróżniać paski niebieskie od zielonych, podczas \ gdy Berinmo zużywali na to średnio 11,4 prób. Gdy zaś zadanie polegało na tym, aby wyuczyć się rozróżniania „wor” i „nol”, Anglicy potrzebowali na to średnio 3,8 prób, a Berinmo - średnio 2,2 prób. Ujawniła się więc pewna asymetria między przedstawicielami obu kultur: Anglicy szybciej od Berinmo opanowywali nieznane ; im rozróżnienia kategorialne kolorów, mimo że żadna grupa nie miała wcześniejszej wiedzy na ten temat. Autorzy konkludują, że różnice lingwistyczne wpływają na różnice w zakresie percepcji barw, a nie tylko ich nazywania, co jest zgodne ? z hipotezą relatywizmu językowego.
Dane przemawiające na korzyść hipotezy Sapora-Whorfa można zresztą znaleźć, nie wyjeżdżając na Nową Gwineę. Jej słuszność potwierdzają rozmaite przypadki manipulacji językowych, które mają za zadanie kontrolę myśli. Ce lowały w tym zwłaszcza reżimy totalitarne, gdzie władza nad językiem oznaczała władzę nad umysłami poddanych. Literacką ilustracją tego zjawiska jest Rok 1984 George’a Orwella. Autor opisuje system, w którym policja polityczna podlega Ministerstwu Miłości, a propaganda - Ministerstwu Prawdy. Podobne zabiegi, choć mniej drastyczne, zdarzają się również w otwartych, demokratycz nych systemach politycznych, nie mówiąc o całkiem prywatnych sposobach kontroli myśli przez kontrolę słów (zob. tab. 13.1). Jednak trudno byłoby udowodnić hipotezę determinizmu językowego w jej mocnej postaci: że każde poznanie jest ściśle ukierunkowane przez język, który określa nasz sposób postrzegania rzeczywistości, a nawet światopogląd. Wiele Tab. 13.1. Eufemizmy polityczno-wojskowe, czyli próba kontroli myśli poprzez kontrolę słów (za: Leahey, Harris, 2001). Wyrażenie
Znaczenie
straty
zabici i ranni po naszej stronie
pacyfikacja
wymordowanie całej wioski
ostateczne rozwiązanie
wymordowanie sześciu milionów Żydów
etniczne czyszczenie
masowe deportacje
przyjacielski ogień
pomyłkowe ostrzelanie własnych oddziałów
planowy odwrót
ucieczka
polityczna poprawność
cenzura
porządek i dyscyplina
bezduszny dryl
honor munduru
zmowa milczenia
602
Rozdział 13. Język i mowa
danych, pierwotnie uważanych za dowody słuszności hipotezy Sapira-Whorfa, to artefakty wynikające z etnocentrycznej postawy badaczy. Na przykład w badaniach Blooma (1981) stwierdzono, że Chińczycy słabo sobie radzą z zadaniami wymagającymi rozumowania hipotetycznego (np. „Gdyby ludzie mieli trzy nogi, to ...”), co przypisano specyficzności języka chińskiego i uznano za dowód, że język kształtuje myślenie. Tymczasem zadania Blooma były bardzo dobrze rozwiązywane przez Chińczyków, gdy je poprawnie przetłumaczono z użyciem idiomów typowych dla języka chińskiego (Au, 1983). Słynny argu ment Whorfa, że Inuici (Eskimosi) używają kilkunastu nazw różnych gatunków śniegu, ale nie mają osobnego słowa na oznaczenie śniegu jako takiego, oparto na słabej znajomości ich języka (por. Pinker, 1995). Argumentów za rozdziel nością języka i poznania szukano też w danych neuropsychologicznych. Defekty językowe, wynikające np. z uszkodzenia pewnych partii mózgu, mają bardzo wybiórczy charakter i w zasadzie nie obniżają ogólnej inteligencji pacjenta. Z drugiej strony wady rozwojowe prowadzące do niepełnosprawności inte lektualnej nie muszą oznaczać upośledzenia w zakresie funkcji językowych, jak to ma miejsce np. w przypadku syndromu Williamsa. Argumentem nienauko wym, ale ważkim, mogą być słowa naszego narodowego poety, Juliusza Stowackiego: „Chodzi mi o to, aby język giętki powiedział wszystko, co pomyśli głowa” (a nie o to, aby głowa pomyślała wszystko, co wyrazi język). Wydaje się, że język i poznanie ani nie są całkowicie niezależne, ani też nie pozostają w relacji, która ściśle podporządkowuje jeden system drugiemu.
i ■
i
i
i I
; ! j ]
j
13.2. Przyswajanie języka 13.2.1. Problem natywizm u W języku potocznym mówi się o uczeniu się języka. Nauka woli termin przyswajanie (acquisition) jako bardziej neutralny, nieprzesądzający o naturze tego procesu, a zwłaszcza o roli środowiska i wrodzonych predyspozycji, Człowiek niewątpliwie przyswaja kompetencje językowe, co dokonuje się zazwyczaj w pierwszych trzech latach życia. Czy to znaczy, że się uczy? A jeśli tak, to czego się uczy, a czego uczyć się nie musi? Wczesne teorie przyswajania języka pozostawały pod wpływem behawioryzmu, podkreślały zatem rolę uczenia się, w szczególności warunkowania i modelowania. W tradycji zapoczątkowanej przez Iwana Pawłowa (1990) język nazywano drugim systemem sygnałowym. Pierwszy system sygnałowy to zbiór odruchów warunkowych, czyli połączeń nowych bodźców z dobrze utrwalonymi reakcjami, przede wszystkim wrodzonymi. W wyniku warunkowania możemy np. reagować strachem na sygnał zagrożenia, zanim pojawi się samo zagrożenie. Drugi system sygnałowy obejmuje sygnały sygnałów. W wyniku warunkowania wyższego rzędu możemy reagować strachem już nie tylko na sygnał zagrożenia, ale również na sygnał zapowiadający ów sygnał. W szczególności takimi „sygnałami sygnałów” miały być wypowiadane przez innych słowa i inne wyrażenia językowe; w przypadku warunkowej reakcji strachu byłyby to takie słowa, jak: „uważaj”, „groźne”, „niebezpieczne” itp. Podobny sposób myślenia
j
; i !
j !
j j
13.2. Przyswąjanie języka
603
znajdziemy u Hobarta Mowrera (1960), który wyróżnił cztery grupy sytuacji odpowiadających znaczeniom językowym: groźba, obietnica, ulga i rozczarowa nie. Tymi terminami opisał przypadki, gdy słowo sygnalizuje niebezpieczeństwo, nagrodę, minięcie zagrożenia lub brak zapowiadanej nagrody. Warunkowanie klasyczne, nawet jeśli nadawało się do opisu zjawiska recepcji komunikatów językowych, nie przystawało do wyjaśnienia tego, w jaki sposób ludzie wytwarzają komunikaty językowe. Schemat uzupełniono więc 0 procesy warunkowania sprawczego (Skinner, 1957). Zgodnie z tym sposobem myślenia, człowiek spontanicznie używa pewnych dźwięków - najpierw pojedynczych głosek i sylab, potem słów i pełnych zdań - otrzymując w zamian wzmocnienie pozytywne lub negatywne. Operując wzmocnieniami, rodzice 1 opiekunowie wykształcają u dzieci umiejętność poprawnego używania wy rażeń językowych we właściwych okolicznościach. Dzięki stosowaniu reguł kształtowania złożonych reakcji (shaping), dorośli są w stanie wykształcić u dzieci umiejętność posługiwania się długimi, skomplikowanym strukturami językowymi, podobnie jak treser potrafi nauczyć foki gry w siatkówkę. W obu przypadkach - złożone zdania u dziecka, gra w siatkówkę u fok - reakcje podlegające warunkowaniu nie wchodzą w pierwotny repertuar zachowań orga nizmu. Nie mogą więc być wzmocnione dopiero wtedy, gdy pojawią się w go towej postaci. Kształtowanie złożonych reakcji polega na wzmacnianiu fragmen tów dłuższej sekwencji reakcji, a po ich utrwaleniu - na wzmacnianiu dalszych fragmentów, aż do wyuczenia długiego i skomplikowanego łańcucha zachowań. Schemat ten później uzupełniono o wyjaśnienia w języku teorii społecznego uczenia się. Zgodnie z tą koncepcją, dziecko uczy się wypowiadania nowych słów i tworzenia nowych struktur językowych przez naśladownictwo. Czynni kiem wzmacniającym jest tutaj sam fakt naśladowania innego osobnika, w szczególności kogoś ważnego lub stojącego wysoko w hierarchii społecznej. Teorio-uczeniową koncepcję przyswajania języka ostro zaatakował Noam Chomsky (1959) w swej słynnej recenzji książki B. F. Skinnera (1957) Verbal learning and verbal behavior. Zdaniem Chomsky’ego, proces nabywania języka jest zdeterminowany wrodzonymi strukturami mózgowymi, swego rodzaju urządzeniem do przyswajania języka (language acquisition device, LAD). Dziecko nie dysponuje gotową wiedzą językową, a jedynie wyspecjalizowanym, wrodzonym aparatem do jej przyswajania (ramka 13.3). Chomsky odróżnia bowiem kompetencję językową od wykonania. Kompetencja jest ukryta i na początku nie przejawia się w wykonaniu, czyli w umiejętności tworzenia gramatycznych wypowiedzi. W miarę przyswajania języka kompetencja przera dza się w wykonanie, co wymaga kilkuletniego okresu ćwiczenia, a przede wszystkim ekspozycji na działanie konkretnego języka naturalnego (polskiego, francuskiego, chińskiego). Jednak ekspozycja i ćwiczenie, zdaniem autora, niewiele by dały, gdyby nie wrodzona, ukryta kompetencja językowa dziecka. Mamy tu więc do czynienia ze stanowiskiem umiarkowanie natywistycznym, choć i w tej postaci wzbudziło ono wiele krytyki. Chomsky posługuje się kilkoma ważkimi argumentami. Po pierwsze, istoty języka nie tworzą, w jego mniemaniu, słowa, lecz struktury syntaktyczne, a te są ukryte i przez to trudne do bezpośredniego utrwalania poprzez wzmocnienia pozytywne. Można za pomocą wzmocnień zmienić częstość używania określo nych słów w określonych sytuacjach, ale czy można w ten sam sposób zmienić
604
Rozdział 13. Język i mowa
Ramka 13.3
Uniwersalna gramatyka Noam Chomsky jest jednym z najsłynniejszych i najwybitniejszych językoznawców w historii. Jego koncepcje są szeroko dyskutowane i krytykowane, nie mniej niż jego lewicowe poglądy polityczne. Problem natywizmu w przyswajaniu języka jest bodaj najbardziej „gorącym” tematem w debatach nad wkładem tego autora do psychologii, językoznawstwa, filozofii i nauk kognitywnych. Według Chomsky’ego, dziecko nie może się nauczyć języka na drodze warunkowania, ponieważ wypowiada zdania, których nigdy nie słyszało, a ponadto robi błędy (zob. błąd hiperregularyzacji), których nigdy nie by łoby w stanie podsłuchać u dorosłych. Wobec tego dziecko musi dysponować wrodzoną kompetencją językową, której na początku nie ujawnia, ale która stanowi podłoże procesu przyswajania języka. Dzięki wrodzonej kompetencji językowej, proces ten jest niezwykle szybki i wydajny. Chomsky sądził, że ta wrodzona kom petencja językowa, którą odróżnia od wykonania, przybiera postać uniwersalnej gramatyki: systemu reguł leżących u podłoża każdego języka i określających zasa dy poprawnego łączenia słów w zdania. Teoria ta nie głosi, że wszystkie języki mają identyczną strukturę gramatyczną, ujawnianą na odpowiednio głębokim poziomie analizy. Nie głosi też, że ludzie są wyposażeni w jakąś strukturę w mózgu, odpowiedzialną za tworzenie zdań według reguł gramatyki czy też za rozumienie przekazów językowych zgodnie z tymi regułami. Teoria głosi jedynie, że ludzie są w sposób wrodzony przygotowani do przyswajania złożonego systemu symbolicznego, jakim jest język, ponieważ wszystkie języki mają wspólne podłoże syntaktyczne. Pogląd o istnieniu niezmienników językowych (language invariants), czyli uniwersalnych form lingwistycznych, obecnych w każdym ludzkim języku, podzielają badacze skądinąd krytyczni wobec Chomsky’ego. Na przykład Anna Wierzbicka (1999), przedstawicielka językoznawstwa kognitywnego, krytykuje Chomsky’ego za nadmierny nacisk kładziony na syntaktyczną stronę języka, a niedocenianie strony semantycznej. Sama Wierzbicka, badając m.in. języki rdzennych mieszkańców Australii, rozwija koncepcję niezmienników semantycznych. Są to pojęcia pierwotne, obecne w każdym języku, z których można „lepić” pojęcia złożone. Pojęciem pierwotnym jest np. „ja” i „ty”, ale już nie „my”. „My” można bowiem utworzyć, dodając „ja” + „ty”. Z kolei „oni” to „nie my”, czyli „ nie ja i nie ty”. Deklarowanym przez Wierzbicką celem jej badań jest odkrycie pełnej listy niezmienników semantycznych, które jej zdaniem pełnią taką samą funkcję, jak postulowana przez Chomsky’ego uniwersalna gramatyka. Według Idy Kurcz (2000), przez pojęcie uniwersalnej gramatyki należy obecnie rozumieć gramatykę sensu largo, czyli każdy system niezmienników lingwistycznych, czy to ściśle gramatycznych, czy też semantycznych, dzięki którym możliwe jest uchwycenie tego, co wspólne wszystkim ludzkim językom. Dzięki istnieniu takich wspólnych cech, każde ludzkie dziecko może łatwo i szybko opanować język, na którego oddziaływanie jest eksponowane. częstość używ ania czegoś, co jest ukryte pod słowami, a co stanowi o istocie kom unikatu językowego? Uważa się, że rodzice reagują bardziej na treść niż na formę wypowiedzi dziecka, w szczególności na treści mogące mieć znaczenie dla w ychow ania lub oceny m oralnej. Bardziej interesuje ich np. to, czy dziecko
13.2. Przyswajanie języka
605
kłamie, niż to, czy domniemane kłamstwo wyrażono w poprawnej formie gra matycznej. W takim razie, jak zauważa Brown (1958), w życiu społecznym powinno być mało kłamców, a dużo osób wyrażających się niegramatycznie, a tymczasem mamy sporo gramatycznie wysławiających się kłamców. Widocznie wzmocnienia rodzicielskie nie są zbyt skuteczne, jeśli chodzi o zachowania ryzykowne moralnie, mimo że są na nie bezpośrednio nakierowane. Cóż dopiero mówić o skuteczności wzmocnień nakierowanych na abstrakcyjne reguły gramatyki. Po drugie, struktur gramatycznych raczej nie uczymy się wprost, w sposób jawny. Wyjątkiem jest oczywiście edukacja szkolna, ale przecież dziecko posługuje się już w pełni gramatycznym językiem, zanim pójdzie do szkoły, nie mówiąc o tym, że ludzie przyswajali sprawności językowe, zanim w ogóle wymyślili szkołę jako system formalnej edukacji. Po trzecie, ludzie zwłaszcza małe dzieci - używają zdań, których nie mieli okazji wcześniej usłyszeć. Nie jest zatem możliwe, aby takie zdania były wyuczone na drodze warunkowania sprawczego czy nawet przez naśladownictwo. Argumenty Chomsky’ego nie pozostały bez reakcji. Przede wszystkim do tej pory nie odnaleziono w mózgu owego hipotetycznego mechanizmu przyswajania języka, mimo znacznych postępów w obrazowaniu pracy mózgu. Dodajmy, że ośrodki mózgowe odpowiedzialne za produkcję mowy i jej rozumienie są znane i od dawna zlokalizowane. Argument o niemożności wzmacniania używania reguł syntaktycznych, ponieważ są ukryte, można podważyć, odwołując się do wiedzy na temat warunkowania. Udzielając wzmocnienia pozytywnego lub ne gatywnego, modyfikujemy nie tylko tę reakcję, na którą intencjonalnie chcieliśmy wpłynąć, ale na wszystkie reakcje, które się w tym samym czasie pojawiły. Dziecko mówi np. o sobie: „Nie zbiła Krzysia”. Podejrzewamy je o kłamstwo i intencjonalnie karcimy za treść, ale przy okazji, nieintencjonalnie, karzemy też za nieprawidłową formę wypowiedzi. Poza tym, nie jest dowiedzione, że rodzice nie reagują na nieprawidłowości syntaktyczne, koncentrując się głównie na treści wypowiedzi. Zapewne reagują na jedno i drugie. Inna sprawa, że w behawiorystycznych koncepcjach języka w ogóle nie było miejsca na abstrakcyjne reguły, więc powyższe rozumowanie jest swoistą nadinterpretacją, przychylną dla zwolenników teorii uczenia się. Argument, że przyswajanie reguł gramatycznych ma postać niejawną, wydaje się najłatwiejszy do zbicia. Behawioryści nigdy nie twierdzili, że warunkowaniu musi towarzyszyć świadomość osoby warunkowa nej co do przedmiotu i celu warunkowania. Przeciwnie, proces warunkowania niejako ze swej natury polega na tym, że osoba warunkowana nie musi sobie zdawać sprawy z tego, że podlega działaniu wzmocnień, a osoba warunkująca że ich udziela. Najtrudniejszy jest chyba argument o twórczości językowej, czyli zdolności do tworzenia zdań, których się nigdy wcześniej nie słyszało. Wydaje się, że można by tu użyć argumentu o generalizacji reakcji: raz uwarunkowana reakcja, np. dobrze opanowana struktura zdaniowa, ma tendencję do ujawniania się w różnych wariantach i modyfikacjach. Jest to zjawisko wręcz typowe dla procesów warunkowania. Do tego trzeba dodać generalizację bodźca, czyli tendencję nowo opanowanej reakcji do ujawniania się w coraz to nowych sytuacjach, pod warunkiem że istnieje jakieś podobieństwo między sytuacją pierwotną a sytuacją, w której zachodzi transfer. Mimo krytyki wczesnych tez Chomsky’ego, obecnie przeważa pogląd, że przyswajanie języka dokonuje się z dużym udziałem czynników wrodzonych.
606
Rozdział 13. Język i mowa
Steven Pinker (1995) widzi dużą analogię między zachowaniem werbalnym człowieka a zachowaniem instynktownym zwierząt. Jeśli ptak ma instynktowną zdolność do budowania gniazda, człowiek ma instynktowną zdolność do mó wienia, swego rodzaju instynkt językowy (Pinker, 1995). Jak w przypadku każdego instynktu, chodzi o gotowość do wykształcenia określonych struktur, a nie o to, że są one dane w gotowej postaci. Dziecko musi być eksponowane na działanie komunikatów językowych, co zresztą obserwujemy od najwcześniej szych etapów rozwoju. Dzięki tej ekspozycji, która musi nastąpić w okresie sensytywnym (kilka pierwszych lat życia dziecka), uruchamiają się odpowiednie struktury mózgowe, w wyniku czego proces przyswajania języka uzyskuje nad zwyczajne przyspieszenie i wydajność. Byłby to więc jeszcze jeden przykład ścisłego współdziałania tego, co wrodzone, z tym, co nabyte. Najważniejsze argumenty natywistów w sporze o przyswajanie języka są następujące (zob. Leahey, Harris, 2001; Lenneberg, 1967; Pinker, 1995): 1. Istnieją wyspecjalizowane struktury mózgowe odpowiedzialne za przetwarzanie języka, choć nie znaleziono struktur wyspecjalizowanych w jego przyswajaniu. 2. Przyswajanie języka nie może być zahamowane. Nawet dzieci kompletnie za niedbane wychowawczo przyswajają własny język, np. migowy, który spełnia podsta wowe kryteria gramatyczności. 3. Stadialny porządek przyswajania sprawności językowych jest niezależny od wychowania i wzorców kulturowych. 4. Tempo przyswajania pierwszego języka jest nadzwyczaj szybkie. Przeciętny sześciolatek bez większego wysiłku uczy się 22 słów dziennie (Bloom, Markson, 1998), podczas gdy osoba dorosła ucząca się języka obcego z trudem przyswaja kilka nowych słów na tydzień. 5. Procesu przyswajania pierwszego języka nie da się znacząco przyspieszyć mimo treningu. 6. Wyjaśnienie procesu przyswajania języka z odwołaniem się do zasad warunkowania i uczenia się przez naśladownictwo, aczkolwiek możliwe, wydaje się mocno dyskusyjne. Wykazano np., że dzieci różnią się pod względem tego, jak często naśladują wyrażenia dorosłych, ale częstość naśladowania nie wpływa na tempo i efekty przyswajania języka (Bloom, 1991).
Zwolennicy tezy o przeważającej roli czynników środowiskowych (np. Tomasello, 2005, w druku) nie lekceważą tych argumentów, ale zwracają uwagę na stronniczość natywistów w prowadzeniu debaty i ich selektywność w doborze faktów empirycznych. Podkreślają rolę specyficznego sposobu komunikowania się z małym dzieckiem, zwanego mową ukierunkowaną na dziecko (child-directed speech). Polega on na modelowaniu zachowań werbalnych dziecka w następstwie wielokrotnego powtarzania krótkich, ale syntaktycznie popraw nych zdań. Jeśli np. dziecko powie: „Kot mleko”, dorosły prawdopodobnie od powie: „Tak, kot pije mleko”. W ten sposób dziecko nie jest karane za użycie niepoprawnej składni, ale modelowane w kierunku użycia poprawnej. Chara kterystyczną cechą tego sposobu komunikowania się są też krótkie, ale intensywne epizody ukierunkowywania uwagi dziecka na wspólnie spostrze gany obiekt, np. zabawkę, czemu towarzyszy przekaz językowy, np. „To jest czerwona piłeczka”. Mowa ukierunkowana na dziecko jest czymś w rodzaju „prywatnych korepetycji z języka ojczystego”, udzielanych przez rodziców w kil
13.2. Przyswajanie języka
607
ku pierwszych latach życia dziecka. Przyswajanie języka nie musi więc polegać na naśladowaniu języka dorosłych, lecz na powtarzaniu tego, co dorośli specjalnie preparują na użytek dziecka. Nowy impuls w przełamaniu dominacji poglądów natywistycznych dał konekcjonizm, a zwłaszcza próby modelowania procesu przyswajania mowy poprzez sieci neuropodobne. Na przykład Jeff Elman (1999, 2001) pokazał, że niezbyt skomplikowana sieć, pozbawiona jakichkolwiek elementów „wrodzonej wiedzy językowej”, może się nauczyć rozpoznawania struktur zdaniowych, jeśli udzieli jej się stosownej informacji zwrotnej. Eksponował on sieć na działanie zdań rekurencyjnych, które były zbyt trudne ze względu na swą złożoność. Kie dy jednak „uszkodził” sieć, pozbawiając ją części możliwości obliczeniowych, stwierdził, że proces uczenia nabrał tempa i wydajności. Autor sądzi, że roz poznawanie struktur zdaniowych, łącznie z poziomem syntaktycznym, wymaga mniejszych możliwości przetworzeniowych, np. mniej pojemnej pamięci ro boczej. Ten paradoksalny efekt prawdopodobnie wiąże się z tym, że system o „zbyt dużej” pojemności obejmuje nadmiar elementów składniowych, podczas gdy system „ograniczony” skupia się tylko na podmiocie i orzeczeniu, przez co uczy się dostrzegać to, co we frazie najistotniejsze. Być może dzieci szybko opanowują struktury syntaktyczne właśnie dlatego, że ich pamięć robocza nie jest jeszcze tak dobrze rozwinięta, jak u dorosłych.
13.2.2. Stadia przyswajania języka Poza nielicznymi wyjątkami, proces przyswajania pierwszego języka jest w za sadzie ukończony u progu czwartego roku życia dziecka. Późniejsze nabytki mają raczej charakter ilościowy (np. przyrost zasobu słownictwa) niż jakoś ciowy (np. opanowywanie struktur syntaktycznych). Trzeba tu jednak odróżnić kompetencję językową dziecka od kompetencji komunikacyjnej (Kurcz, 2000). Pierwsza jest w pełni ukształtowana już u trzylatka, podczas gdy druga ciągle intensywnie się rozwija wraz z rozwojem społecznym dziecka. Skuteczne komunikowanie się wymaga opanowania pragmatycznego poziomu języka, a ten wiąże się z rozumieniem sytuacji społecznych, rozumieniem kontekstu, wnioskowaniem o stanie wiedzy partnera i wieloma innymi złożonymi pro cesami poznawczymi. Dlatego rozwój kompetencji komunikacyjnych dokonuje się nawet jeszcze po adolescencji. W pierwszym roku życia dziecko ćwiczy fonologię języka ojczystego. Przy biera to postać charakterystycznych zachowań wokalnych, zwanych głużeniem, czyli wypowiadaniem pojedynczych fonemów, i gaworzeniem, czyli wypowia daniem pojedynczych sylab. Ćwiczy też prozodię, tzn. charakterystyczny dla każdego języka typ „zaśpiewu”; na prozodię składa się intonacja, czyli czasowe zmiany wysokości wypowiadanych dźwięków, a także akcent i rytm. Ważną rolę pełnią w tym wczesnym etapie dorośli, którzy dzięki charakterystycznemu sposobowi mówienia do dziecka oswajają je z dźwiękową charakterystyką języ ka ojczystego. Ma to olbrzymie znaczenie dla późniejszego rozwoju rozumienia komunikatów werbalnych, ponieważ prozodia dostarcza ważnych wskazówek w procesie deszyfrowania mowy (podział dźwięków na słowa i zdania, identyfikacja trybu pytającego itd.) (Ferreira, 1993, 2002).
608
Rozdział 13. Język i mowa
Pierwsze słowa pojawiają się zwykle między 12. a 14. miesiącem życia, choć przejawy ich rozumienia ujawniają się już po 9 miesiącach od urodzenia. Chodzi o słowa oznaczające rodziców lub opiekunów, nazwy najczęściej obser wowanych przedmiotów lub substancji (np. woda), określenia zwierząt domo wych, niektóre wyrażenia społeczne (np. pożegnanie typu „pa, pa!”), a także bardzo ważne słowo „nie!” (Gleitman, Bloom, 1999). Przez cały drugi rok życia dziecko w zasadzie mówi pojedynczymi wyrazami, co najwyżej łącząc je w krót kie zestawy bez poprawnego odmieniania przez osoby, czasy i przypadki (np. „Mama bawić”), co nazwano mową telegraficzną. Pozornie jest to mowa bez gramatyki, jednak badania ujawniły, że u jej podłoża można odnaleźć rozu mienie struktur językowych i elementarną wiedzę syntaktyczną. Na przykład dziecko, słysząc jeden z dwóch komunikatów: „Straszydło goni ptaka” lub „Ptak goni straszydło”, kieruje wzrok ku monitorowi, na którym widać akcję treściowo odpowiadającą komunikatowi werbalnemu (Hirsh-Pasek, Golinkoff, 1996). Oznacza to, że dzieci w tym wieku są wrażliwe na strukturę syntak tyczną zdania, choć nie potrafią jej jeszcze aktywnie użyć. Zjawisko polegają ce na tym, że rozumienie wyprzedza artykulację, jest typowe dla rozwoju mowy, jak też dla uczenia się języków obcych przez osoby dorosłe (KielarTurska, 2000). Rozkwit dziecięcej kompetencji językowej obserwuje się w trzecim roku życia. Dziecko mówi już wówczas pełnymi, choć krótkimi zdaniami. Potrafi ope rować trybami (przede wszystkim pytającym) i zdaniami podrzędnie złożonymi (np. „Ciastko, co je zjadłem”). Nie znaczy to, że mowa dziecka w tym wieku jest bezbłędna. Dwa najbardziej interesujące rodzaje błędów dotyczą kategoryzowa nia i tworzenia struktur gramatycznych. Błąd nadrozciągłości znaczeń (
13.2. Przyswajanie języka
609
wania niegramatycznych zdań z ukrytą syntaksą, a trzeci rok to ćwiczenie w pełni gramatycznych wypowiedzi i dopasowywanie ich do potrzeb komuni kacyjnych dziecka.
13.2.3. Dwujęzyczność i wielojęzyczność Dawniej uważano, że osoba dwujęzyczna to taka, która płynnie i bez wysiłku przechodzi z jednego języka na drugi i potrafi wyrazić dowolną treść w każdym z opanowanych języków (Bloomfield, 1933). We współczesnym ujęciu dwui wielojęzyczność to zdolność do posługiwania się więcej niż jednym językiem. Nie jest konieczna biegłość, porównywalna z biegłością w języku ojczystym, bo ścisłe kryteria dwujęzyczności spełnia bardzo niewiele osób (Grosjean, 1997). W liberalnym ujęciu osobą dwujęzyczną jest każdy, kto opanował choć jeden język obcy w stopniu umożliwiającym komunikowanie się. Może to polegać na opanowaniu tylko jednej sprawności językowej, np. czytania, albo wszystkich sprawności, tj. słuchania, czytania, mówienia i pisania (Wodniecka, 2004). Do pewnego momentu w rozwoju poznawczym drugi język przyswajamy tak jak pierwszy, to znaczy szybko i bezwysiłkowo, korzystając z „instynktu językowego”. Struktury nerwowe odpowiedzialne za przetwarzanie języka cze kają na wypełnienie konkretną zawartością. Jeśli dziecko jest eksponowane na więcej niż jeden język, to przyswaja wszystkie w ten sam sposób. W rezultacie posługuje się więcej niż jednym językiem na tym samym poziomie, łącznie z idiomatyką i prozodią. W tym etapie ważna jest spójność w tworzeniu prze kazów językowych. Jeśli każde z rodziców w wielokulturowej rodzinie poro zumiewa się z dzieckiem we własnym języku, obserwuje się równomierne rozdzielenie kompetencji językowych. Dziecku nie mylą się języki, jak w przy padku dziewczynki wychowywanej w rodzinie polsko-francuskiej, która użyła zwrotu: Mama, je vais pła! (je vais = będę, mam zamiar, pla = skrótowe „płakać”). Rozdzielenie języków może się dokonać według osób (np. z mamą po polsku, z tatą po francusku) lub według dziedzin życia (np. rozmowa w domu po polsku, zabawa z rówieśnikami po francusku). To ostatnie zjawisko jest typowe dla dzieci emigrantów, które w domu posługują się językiem ojczystym, a poza domem - językiem kraju osiedlenia. Kiedy minie okres sensytywny, przyswajanie drugiego języka dokonuje się inaczej. Jest to wówczas proces powolny i wymagający wysiłku, a jego efekty nigdy nie będą idealne. Nawet osoby o doskonałej płynności wypowiedzi i ogól nie wysokiej kompetencji w drugim języku nie są w stanie wyeliminować obcego akcentu, choć obserwuje się w tym względzie ogromne zróżnicowanie międzyosobnicze. Ponadto osoby o „późnej dwujęzyczności” zawsze ponoszą pewne koszty przetwarzania informacji w drugim języku (Wodniecka, 2004). Ujawnia się to w zwiększonej podatności na błędy, a przede wszystkim w znaczącym wydłużeniu czasu przetwarzania. Są to zmiany introspekcyjnie niezauważalne, ale dość wyraźne (ramka 13.4). Do kosztów dwujęzyczności zalicza się też interferencję między językami: znajomość więcej niż jednego języka zwiększa ryzyko pomyłki w doborze słów i wyrażeń, spowalnia procesy wydobywania słów z leksykonu mentalnego i wymaga zwiększenia kontroli na etapie arty
610
Rozdział 13. Język i mowa
kulacji, aby słowo z jednego.języka nie „wcisnęło się” w komunikat sformu łowany w innym języku. Zgodnie z hipotezą interferencji, dwujęzyczność rodzi problemy w zakresie przetwarzania obu języków: język obcy jest przetwarzany gorzej jako opanowany później i na niższym poziomie, a przetwarzanie języka ojczystego ulega pogorszeniu (głównie spowolnieniu) z powodu konieczności zmagania się z intruzjami, czyli obcymi wtrętami słownymi lub składniowymi. Dwu- i wielojęzyczność przynosi też skutki pozytywne w sferze poznaw czej, dlatego jest zjawiskiem interesującym nie tylko dla psycholingwistów (Cook, 1997). Przede wszystkim osoby wielojęzyczne funkcjonują na wyższym poziomie świadomości metajęzykowej. Zwiększa się zakres ich refleksji nad naturą języka, np. nad arbitralnością różnych rozwiązań lingwistycznych (zasad tworzenia liczby mnogiej, fleksji lub jej braku itp.). Wyższy poziom świadomości metajęzykowej to lepsze zrozumienie poznawczych i komunikacyjnych możli wości tkwiących w systemie językowym, a co za tym idzie - lepsze wykorzysta nie tych możliwości. Inaczej mówiąc, osoby wielojęzyczne wyrażają się bardziej precyzyjnie, ponieważ staranniej dobierają słowa i struktury składniowe. Wyka zano ponadto, że osoby dwujęzyczne uzyskują wyższe wyniki w testach wytwa rzania dywergencyjnego, używanych jako miara zdolności twórczych. Być może osoba dwujęzyczna, dysponując podwójnym leksykonem, ma bogatszą sieć skojarzeniową. Według teorii rozprzestrzeniającej się aktywacji, wzbudzenie jednego węzła sieci rozchodzi się do węzłów sąsiednich. Im więcej węzłów w sieci, tym większe prawdopodobieństwo, że pobudzenie dotrze do takiej jednostki znaczeniowej, która w danym kontekście zadaniowym będzie nie oczekiwana lub mało prawdopodobna. To może prowadzić do oryginalnych pomysłów, niezbędnych do otrzymania wysokich wyników w testach myślenia dywergencyjnego (por. Gruszka, Nęcka, 2002). Interesujące stanowisko przyjmuje Ellen Białystok (2001), która uważa, że dwujęzyczność przyczynia się do większej selektywności uwagi i odrzucania informacji nieistotnych. Jeśli tak, to osoby dwujęzyczne powinny uzyskiwać przewagę w większości zadań poznawczych, ponieważ selektywność uwagi jest jednym z podstawowych uwarunkowań skuteczności procesów przetwarzania informacji. Na razie dysponujemy zbyt małą ilością danych empirycznych, aby bez zastrzeżeń przyjąć taką konkluzję. Ramka 13.4
Poznawcze koszty przetwarzania drugiego języka Zofia Wodniecka (2004) obmyśliła oryginalną procedurę badawczą do oceny kosztów przetwarzania drugiego języka. Osoby badane weryfikowały prawdziwość prostych wyrażeń arytmetycznych, np. 3 + 4 = 7. W połowie przypadków wyrażenie było prawdziwe, więc badany powinien nacisnąć przycisk z literą P (prawda), podczas gdy druga połowa wyrażeń wymagała reakcji F (fałsz, np. 3 + 4 = 8). Zadania te eksponowano na trzy sposoby: wyłącznie z użyciem cyfr, z użyciem słowa i w języku ojczystym (zwanym przez autorkę pierwszym językiem, L1) oraz z użyciem słowa w języku obcym (drugim języku, w tym przypadku angielskim, L2). Słowa ? zastępowały ostatnią liczbę w wyrażeniu, określającą prawdziwy lub fałszywy wynik
13.2. Przysw ajanie języka
611
działania arytmetycznego. Były więc trzy warunki eksperymentalne, różniące się tylko tym, co było na ostatnim miejscu wyrażenia, np.: Liczby: L1: L2:
3+ 4 = 7 3 + 4 = siedem 3 + 4 = seven
lub lub lub
3 + 4= 8 3 + 4 = osiem 3 + 4 = eight
W każdym warunku prezentowano wzrokowo 40 wyrażeń, razem 120 wyrażeń ułożonych w jednolite bloki lub w porządku losowym. Koszty przetwarzania drugiego języka szacowano w postaci różnicy czasu reakcji. Odejmując średni czas reakcji w warunku z liczbami od czasu w warunku L1, można było ocenić, jak kosztowne jest przetwarzanie wyrażeń arytmetycznych w pierwszym języku, a odejmując czas w warunku z liczbami od czasu warunku L2 można było ocenić koszt przetwarzania informacji w drugim języku. Okazało się, że tak obliczane koszty były znacznie wyższe w warunku L2. Co więcej, były one szczególnie wysokie w przypadku nowicjuszy. Osoby o średnim poziomie biegłości w drugim języku ponosiły znacznie niższe koszty, porównywalne z tymi, które zaobserwowano w przypadku osób o dużym poziomie biegłości (ryc. 13.3).
początkujący
średnio zaawansowani
zaawansowani
biegłość w drugim języku
Ryc. 13.3. Koszty poznawcze przetwarzania informacji w drugim języku (za: Wodniecka, 2004).
Liczenie uchodzi za czynność, którą w drugim języku opanowujemy naj później. U wielu osób dwujęzycznych da się więc zauważyć „pozostałości” pierw szego języka podczas przetwarzania liczb w drugim języku. Wielkość owych pozostałości, czyli koszty przetwarzania informacji w drugim języku, mogą być podstawą oceny stopnia zautomatyzowania procesów przetwarzania drugiego języka, a tym samym - stopnia jego opanowania. Byłby to inny sposób oceny biegłości w drugim języku niż testy i sprawdziany.
612
Rozdział 13. Język i m ow a
13.3. Mówienie Aby cokolwiek powiedzieć, trzeba najpierw utworzyć mentalną reprezentację przekazu i zaplanować jego wykonanie. Następnie trzeba wybrać z pamięci semantycznej właściwe słowa o znaczeniu adekwatnym do sensu przekazu, przypisać im stosowną formę gramatyczną i ułożyć we właściwym porządku składniowym. Na końcu konieczne jest przełożenie utworzonego wcześniej zdania na kod fonologiczny, czyli odpowiednią sekwencję głosek. Tym trzem etapom odpowiadają wyspecjalizowane procesy poznawcze.
13.3.1. Planowanie m owy Planowanie mowy polega na podjęciu decyzji co do dwóch spraw: sensu przekazu i intencji jego przekazania. Mówca musi wiedzieć, co chce powiedzieć i w jakim celu chce to uczynić. Te dwa aspekty są rozdzielne, ponieważ z sensu nie zawsze wynika intencja, a intencja nie zawsze ściśle definiuje sens. Na przykład treść mojej wypowiedzi może zawierać opis tego, jak będzie przebiegał egzamin w zbliżającej się sesji, ale moją intencją może być uspokojenie słuchaczy („Nie będzie tak strasznie”), ich zdyscyplinowanie („Musicie się pilniej uczyć”) lub przestraszenie („Na pewno nie zdacie!”). Wbrew konotacji takich słów, jak decyzja, cel i intencja, planowanie mowy jest procesem, do którego mamy bardzo ograniczony dostęp introspekcyjny. Mówienie prawie zawsze zachodzi w kontekście społecznym, dlatego pla nowanie mowy wymaga uwzględnienia pragmatycznego aspektu języka. Mówca i słuchacz muszą ze sobą współdziałać, co Paul Grice (1967) nazwał zasadą kooperacji (cooperative principle; zob. ramka 13.5). Owa zasada sprowadza się do tego, że obie strony wzajemnie sobie pomagają: mówca tak planuje wypo wiedź, aby odbiorca zrozumiał ją zgodnie z pierwotnym sensem i intencją, a słuchacz stara się trafnie interpretować intencje mówcy i sens jego wypo wiedzi. W szczególności zasada kooperacji wymaga wzajemnego uwzględnienia własnych przekonań, oczekiwań i umiejętności komunikacyjnych, a przede wszystkim wiedzy. Mówca łamie zasadę kooperacji, jeśli nie bierze pod uwagę stanu umysłu słuchacza, a słuchacz - gdy ignoruje stan umysłu mówcy. Na przykład, gdy żona mówi do męża: „Chyba już nie pada”, może mieć na myśli fakt, że znikły przeszkody, aby wyjść na spacer z psem, a przez to sugeruje, że należałoby to uczynić. Jeśli mąż odpowie: „To chodźmy na spacer”, daje dowód współpracy, ale jeśli wygłosi uwagę: „Tak, rzeczywiście, rozchmurzyło się”, gwałci zasadę kooperacji. Ludzie mogą łamać tę zasadę intencjonalnie, wtedy rozmowa jest rodzajem walki i przejawem agresji, lub nieintencjonalnie, z po wodu braku danych co do przekonań, oczekiwań i wiedzy drugiej strony, a najczęściej z tego powodu, że owe dane są niekompletne lub fałszywe. Planowanie mowy dokonuje się z uwzględnieniem wspólnej płaszczyzny (icommon ground', Horton, Keysar, 1996), czyli podzielanych przez obie strony konwersacji elementów wiedzy, często niejawnej. Osoby blisko ze sobą związane porozumiewają się swoistym szyfrem, zrozumiałym tylko dla nich, ponieważ ich komunikacja jest wspomagana olbrzymią liczbą wspólnych, mil-
13.3. Mówienie
613
Ramka 13.5
Maksymy konwersacyjne
Paul Herbert Grice (1957) wyróżnił cztery maksymy konwersacyjne, które mają ułatwiać stosowanie się do ogólnej reguły, jaką jest zasada kooperacji. Jako językoznawca, autor przyjął perspektywę normatywną, wskazując na skuteczne sposoby porozumiewania się. Dla psychologów, którzy preferują podejście deskryptywne, maksymy Grice’a są pomocne w opisie i klasyfikacji błędów popeł nianych przez ludzi w sytuacjach wzajemnego porozumiewania się. Komunikacja zafałszowana lub nieefektywna prawie zawsze wiąże się z ignorowaniem co naj mniej jednej z tych maksym. 1. Maksyma ilości. Komunikat powinien zawierać tyle danych, ile to konieczne - nie więcej i nie mniej. Używanie nadmiernej ilości szczegółów tylko pozornie podnosi konwersację na wyższy poziom, ponieważ zalanie słuchacza szczegółami może mu utrudnić odbiór sensu komunikatu. Dopasowanie się do optymalnego poziomu szczegółowości wypowiedzi może być trudne, jeśli nie znamy wystar czająco dobrze rozmówcy, jego oczekiwań, przekonań i wiedzy. 2. Maksyma jakości. Mówca powinien mówić prawdę, ponieważ takie będzie prawdopodobne oczekiwanie słuchacza. Ludzie zdają sobie sprawę z tego, że komunikaty językowe mogą być kłamliwe, ale wstępne, automatycznie przyjmo wane założenie głosi, że są prawdziwe. Kłamca łamie więc podstawową regułę dobrej komunikacji, chyba że zdaje sobie sprawę, iż odbiorca o tym wie. Jeśli obie strony wiedzą, że komunikat jest kłamliwy, nie można mówić o łamaniu reguł konwersacyjnych, lecz moralnych. 3. Maksyma relacji. Mówca powinien mówić na temat, bez dygresji i od biegania od głównego wątku. Jeśli jednak dygresja czemuś służy, maksyma relacji nie zostaje złamana. 4. Maksyma sposobu. Mówca powinien używać środków wyrazu dostępnych odbiorcy. Chodzi o wystarczająco głośną i wyraźną artykulację, a ponadto o nieużywanie słów i wyrażeń, których słuchacz nie zrozumie ze względu na brak wiedzy lub możliwości technicznych.
cząco przyjmowanych założeń. Ale nawet wtedy konieczne jest ustalenie wspólnej płaszczyzny, bo w przeciwnym wypadku porozumienie nie będzie możliwe. Nawet ludzie doskonale siebie nawzajem rozumiejący muszą od czasu do czasu sprawdzić, o czym jest mowa i czy obie strony przyjmują podobne założenia. Jeśli porozumiewają się osoby obce, ustalenie wspólnej płaszczyzny może być bardzo trudne. Horton i Keysar (1996) twierdzą, że proces ten przybiera dwie postaci. W pierwszym przypadku mówca, planując wypowiedź, od początku przyjmuje określone założenia co do wspólnej wiedzy i dobiera treść wypowiedzi odpowiednio do tych założeń. W przypadku drugim mówca w sposób ciągły monitoruje proces porozumiewania się, aby w razie potrzeby zmienić początkowy plan i dopasować go do odbiorcy. W trakcie rozmowy często korzystamy z werbalnych i niewerbalnych wskazówek informujących nas o tym, czy nasz przekaz „trafia” do odbiorcy. Jeśli mamy wrażenie, że „nie trafia”, możemy zmienić początkowy plan, a przede wszystkim - odpowiednio do rezultatów monitorowania planować kolejne wypowiedzi. Ludzie różnią się
614
Rozdział 13. Język i mowa
pod względem wrażliwości na wskazówki tego rodzaju, jak też pod względem gotowości do zmiany początkowego planu w wyniku monitorowania. Ponadto strategia ciągłego monitorowania i dopasowania jest bardziej kosztowna poznawczo, bo oprócz regularnych procesów planowania mowy wymaga uru chomienia procesów kontrolnych. Jednak ta właśnie strategia prowadzi do lepszych rezultatów, jeśli chodzi o wzajemne porozumiewanie się. Planowanie mowy jest minimalnie przesunięte w czasie w stosunku do realizacji planu. Oznacza to, że wypowiadając zaplanowane wcześniej słowa, jesteśmy już mentalnie przy następnym fragmencie wypowiedzi, przez co bie żąca kontrola wypowiedzi nie jest doskonała. Świadczą o tym charakterystyczne błędy językowe, zwane przejęzyczeniami, w szczególności błędy antycypacji. Na przykład dziewczyna mówi do chłopaka: „Piciu, co ci zrobić do misia?”. Ozna cza to, że wypowiadając pierwsze słowo, którym według planu miało być „Misiu”, mentalnie była już przy słowie ostatnim, które miało brzmieć „picia”. Głoska „p” z ostatniego słowa wcisnęła się na sam początek, ponieważ po czątkowe słowo zostało zaplanowane ułamek sekundy wcześniej, a później było już poznawczo „zaniedbane”. W rezultacie powstało przejęzyczenie polegające na antycypującej zamianie nie tylko pojedynczych fonemów, ale całych słów wraz z właściwymi formami gramatycznymi. Zdecydowana większość takich zamian dokonuje się wewnątrz frazy zda niowej (Garrett, 1975), co oznacza, że jednostką planowania mowy jest właśnie fraza. Na przykład przygotowanie do wypowiedzenia zdania: „Pewien chłopiec kupił cukierek w sklepie” (zob. ryc. 13.2), wymaga najpierw zaplanowania frazy „Pewien chłopiec”, a dopiero w drugiej kolejności - frazy „kupił cukierek w sklepie”. Wobec tego może się pojawić przejęzyczenie typu: „kupił sukierek w sklepie”, podczas gdy jest niezwykle mało prawdopodobne, aby ktoś powiedział: „Sewien chłopiec kupił cukierek w sklepie”. Przetwarzając frazę, mamy do czynienia ze szczególnym przypadkiem interferencji, wynikającej z wykonywania dwóch czynności jednocześnie. Jedna z tych czynności to planowanie wypowiedzi, a druga - realizacja planu, czyli wypowiadanie wcześniej zaplanowanych fraz. Mimo że pierwsza czynność mi nimalnie wyprzedza drugą, wzajemnie sobie przeszkadzają. Interferencja nie przenosi się jednak na sąsiednie frazy, co oznacza, że fraza jest jak gdyby osobnym pakietem wypowiedzi. Interesujące, że pakietami nie są ani struktury wyższego rzędu (zdania, dłuższe fragmenty tekstu), ani struktury niższego rzędu (słowa, części fraz). W pierwszym przypadku planowanie byłoby przy puszczalnie zbyt trudnym zadaniem dla pamięci roboczej, która musiałaby przechować w czynnej postaci zbyt wiele jednostek wiedzy semantycznej. W drugim przypadku planowanie byłoby poznawczo niewydolne i właściwie nie spełniałoby swych funkcji. Nic by nam nie dało zaplanowanie zbyt krótkiego fragmentu wypowiedzi, np. „cukierek w sklepie”, bo taki fragment - choć niesie określone znaczenie - pozbawiony jest komunikacyjnego sensu. Dopiero fraza jest jednostką sensu, a zatem jednostką planowania mowy. Świadczą o tym również pauzy w trakcie mówienia, których zdecydowana większość ma miejsce między frazami, co sugeruje, że w ich trakcie dokonuje się planowanie następnej frazy.
13.3. Mówienie
615
13.3.2. Kodowanie semantyczno-syntaktyczne Po wypracowaniu sensu i intencji trzeba przekształcić myśli w słowa. Proces ten, zwany leksykalizacją, wymaga zaangażowania trzech poziomów języka: semantycznego, syntaktycznego i fonologicznego. Uważa się, że leksykalizacja jest procesem co najmniej dwuetapowym (Garret, 1975; Levelt, 1989). Poniższy opis jest próbą syntezy ujęć dwuetapowych ze szczególnym uwzględnieniem teorii Willema Levelta. Według Levelta (1989), pierwszy etap leksykalizacji polega na wyborze lemm. Terminem lemma2 określa się abstrakcyjną postać słowa, obejmującą trzy elementy: (1) jego znaczenie, (2) funkcję syntaktyczną przewidzianą dla niego w przyszłym zdaniu oraz (3) wskaźniki fonologiczne, czyli wstępne dane dotyczące sposobu jego wymawiania. W uproszczeniu lemma to „syntaktyczne słowo”. Weźmy dla przykładu zdanie: Podszedł do dziewczynki. Zanim mówca wypowie pierwsze słowo, musi je uaktywnić w postaci lemmy, to znaczy przedstawić sobie w umyśle jego sens i funkcje składniowe. Na lemmę słowa „podszedł” składają się następujące elementy: (1) czynność aktywna, (2) polegająca na zbliżaniu się do obiektu (3) za pomocą naturalnej lokomocji, (4) wykonywana przez człowieka lub zwierzę (5) płci męskiej, (6) która to czynność będzie centralnym elementem frazy czasownikowej przyszłego zdania. Zatem lemma słowa „podszedł” to umysłowa reprezentacja wiedzy, na którą składają się elementy 1-6. Z kolei lemma słowa „dziewczynka” może być przedstawiona jako suma następujących elementów wiedzy: (1) osoba (2) niepełnoletnia (3) płci żeńskiej, (4) pełniąca funkcję rzeczownika w przyszłej frazie nominalnej, podrzędnej w stosunku do frazy czasownikowej zdania głównego. Lemma jest więc pośrednikiem między znaczeniem a jego konkretną realizacją dźwiękową. Samo znaczenie ma postać zbyt ogólną, np. „podejść”, „dziewczynka”, przez co nie nadaje się do konstrukcji frazy. Poza tym znaczenie słowa nie zawiera żadnych informacji na temat jego brzemienia i sposobu wymawiania - jest cząstką wiedzy, zapisaną w formie pojęciowej lub propozycjonalnej. Natomiast wyartykułowane słowo jest już konkretną realizacją znaczenia, która nie może się pojawić bez wcześniejszego ustalenia jego gramatycznych funkcji, a przez to jego budowy (np. odmiana przez osoby i przypadki) oraz sposobu artykulacji. Pośrednicząc między znaczeniem, czyli umysłową treścią pojęcia, a słowem, czyli dźwiękową realizacją znaczenia, lemma ułatwia utworzenie semantyczno-syntaktycznego kodu przyszłego zdania. Kod ten można przedstawić w postaci drzewka derywacyjnego, które określa nie tylko to, jakie słowa zostaną wypowiedziane, ale też jaką będą pełnić funkcję we frazie i w całym zdaniu. Dowodów na obecność tego etapu wytwarzania mowy szukano przede wszystkim poprzez analizę błędów językowych. Szczególnie ważne są tutaj obserwacje nad efektem końca języka (tip-of-the-tongue phenomenon). Przy puśćmy, że zadamy pytanie, jakim słowem określa się rezygnację osoby panującej z przysługujących jej praw do tronu. Spora liczba osób badanych 2 Lemma to nie to samo, co „lemat”. Mimo wspólnego źródłoslowu (gr. lemma = treść, temat, tytuł), lemma to abstrakcyjna forma słowa, a lemat - twierdzenie pomocnicze, ułatwiające dowodzenie innych twierdzeń logicznych lub matematycznych.
616
Rozdział 13. Język i mowa
nie będzie umiała udzielić odpowiedzi, choć będzie przekonana, że zna to słowo. Powiemy, że osoba badana nie potrafi wyartykułować słowa „abdykacja”, choć ma je na końcu języka. Co więcej, niektórzy badani będą w stanie poprawnie określić, jaką literę zaczyna się to słowo, ile ma sylab i czy zawiera głoskę „c”. Zdaniem Levelta świadczy to o tym, że lemma zawiera nie tylko znaczenie i funkcję składniową przyszłego słowa, ale też wskaźniki fonologiczne, czyli wstępne informacje dotyczące jego brzmienia. Nie jest to pełna forma brzmie niowa, a jedynie szczątkowe wskazówki, które przypuszczalnie ułatwiają nam późniejsze odnalezienie szukanego słowa w umysłowym leksykonie. Wielu badaczy wątpi, czy konieczne jest kodowanie przekazu w postaci lemm (np. Dell, 1986, 1995). Argumentują oni, że wytwarzając mowę, ko rzystamy z bezpośrednich połączeń między znaczeniem słowa a jego brzmie niem. Połączenia te mają działać w obie strony: w procesie mówienia znaczenie bezpośrednio przekłada się na brzmienie, a w procesie rozumienia mowy odwrotnie. Wydaje się, że odwołanie się do zasady oszczędności pojęciowej (brzytwa Ockhama), jakkolwiek w ogóle wskazane, w tym wypadku nie jest uzasadnione. Kodowanie przekazu ma bowiem charakter semantyczno-syntak tyczny, więc przekształcenie znaczenia na dźwięki musi być przez coś zapośredniczone. Wyobraźmy sobie, że wypowiadając opinię o niskim poziomie artykułu prasowego, używamy wyrażenia: „To jest dno dna”. Gdyby nasz umysł przekładał znaczenia bezpośrednio na wypowiadane słowa, nigdy taki przekaz by nie powstał. Uaktywnienie znaczenia „dno” nie daje żadnych wskazówek, jak skonstruować całą frazę. Musimy wiedzieć, że jedno „dno” jest „dnem” drugiego „dna”, a więc to samo znaczenie jest użyte podwójnie, ale w całkiem innej funkcji składniowej. Musimy zejść z poziomu znaczeń na poziom lemm, bo tylko tam znajdziemy wskazówki syntaktyczne. Jedna lemma definiuje nam orze czenie, a druga dopełnienie, przez co relacja między dwoma „dnami” staje się klarowna. Gdybyśmy chcieli naszą opinię zradykalizować, wydając ocenę: „dno dna bezdenne”, umożliwi nam to reprezentacja w postaci trzech lemm; w każdym razie same znaczenia nie wystarczą, aby skutecznie zakodować przekaz. Nie może być też tak, że najpierw przywołujemy znaczenia, a następnie układamy je we właściwym porządku, według reguł składni. Sam dobór słów jest bowiem podporządkowany potrzebom syntaktycznym przyszłego zdania. W zależności od struktury zdania możemy potrzebować takich, a nie innych znaczeń. Z kolei struktura zdania podporządkowana jest wcześniej zaplanowa nemu sensowi przekazu, a ten składa się ze znaczeń. Tak więc w procesie wy boru lemm semantyczne i syntaktyczne aspekty języka nawzajem się determi nują, a przy tym działają jednocześnie. Dlatego lemma jest przydatnym konstruktem pojęciowym opisującym proces wytwarzania mowy, ponieważ odnosi się do czegoś więcej niż znaczenie rozumiane jako cząstka wiedzy, a czegoś mniej niż konkretne, wyartykułowane słowo.
13.3.3. Kodowanie fonologiczne Po dokonaniu wyboru lemm fraza jest gotowa pod względem semantyczno-syntaktycznym, ale niegotowa do wymówienia. Musi teraz nastąpić drugi etap leksykalizacji, jakim jest wybór leksemów. Terminem tym określa się jednostkę
13.3. Mówienie
617
umysłowego słownika (leksykonu mentalnego), na który składają się konkretne słowa odpowiadające określonym znaczeniom. W przypadku synonimów jed nemu znaczeniu odpowiadają dwa leksemy, a w przypadku homonimów - dwu znaczeniom odpowiada jeden leksem. Ponadto leksemy są swoiste dla każdej formy gramatycznej słowa. Na przykład pojęcie „koń” niesie jedno, określone znaczenie, któremu mogą odpowiadać liczne leksemy, takie jak koń, konie, ko niom, końmi itd. Leksykonem mentalnym nazywamy zbiór wszystkich leksemów, którymi dysponuje konkretny użytkownik języka. Tenże użytkownik może dysponować więcej niż jednym leksykonem, jeśli jest wielojęzyczny. Wybór leksemów to faza, którą Levelt nazywa „wypełnieniem szczeliny” między myślą a brzmieniem. Do tej pory wypowiedź nie była kodowana dźwię kami, z wyjątkiem naprowadzających wskaźników fonologicznych, stanowią cych część lemmy. Od tej pory wypowiedź przyjmuje już postać dźwiękową, co oznacza ukończenie procesu szyfrowania myśli poprzez dźwięki mowy. W jednej z ostatnich wersji teorii Levelta (2001; Levelt, Roelofs, Meyer, 1999), ten etap wytwarzania mowy nazywa się kodowaniem formy wypowiedzi i obejmuje trzy podetapy. Najpierw przywoływane są z pamięci głoski, składające się na przyszłą wypowiedź. Są one ustawiane w takim porządku, w jakim będą za chwile wy mówione. Następnie ustala się sylabizację i prozodyzację wypowiedzi. Sylabizacja jest niezbędna, bo ten sam ciąg głosek może być różnie pokawałkowany w zależności od formy gramatycznej słowa, np. „koń”, „ko-nie”, „koń-ski”. Ponadto te same głoski wymawia się różnie w zależności od tego, jaką tworzą sylabę. Na przykład głoska „o” brzmi nieco inaczej, gdy mówimy „koń”, a ina czej, gdy używamy tego słowa w dopełniaczu („konia”). Dzięki tym subtelnym różnicom odbiorca komunikatu uzyskuje cenne wskazówki ułatwiające mu dekodowanie mowy. Równie cenną wskazówką jest prozodia (Ferreira, 1993, 2002). Charakterystyczna intonacja, akcent i rytm pozwalają szybciej wykonać segmentację wypowiedzi (zob. rozdz. 13.4.1), a przede wszystkim szybciej i sprawniej dokonać rozbioru zdania (zob. rozdz. 13.4.2). Właśnie dzięki wskaź nikom prozodycznym zdania „ślepej uliczki” są łatwiejsze do zrozumienia w mowie niż w piśmie (Beach, 1991). W językach, w których akcent jest stały (np. w polskim lub francuskim), sposób akcentowania zdań dostarcza szcze gólnie cennych wskazówek w procesie deszyfracji mowy. Ostatni etap to kodowanie fonetyczne, czyli wybór odpowiednich wzorców artykulacyjnych dla każdej sylaby. Autor twierdzi, że w pamięci przechowujemy zbiór najczęściej używanych sylab (jest ich ok. 500), które tworzą swoisty „sylabarz” - strukturę analogiczną do słownika umysłowego. W wyniku kodowania fonetycznego odpowiednie .wzorce artykulacyjne są przywoływane z pamięci, a następnie przekształcane w dźwięki mowy, czym jednak teoria Levelta już się nie zajmuje. Teoria Levelta jest obecnie najbardziej rozbudowanym i najlepiej uzasad nionym modelem wytwarzania mowy. Na jego korzyść przemawiają dane em piryczne, w szczególności analiza błędów i przejęzyczeń. Błędy te są zasadniczo dwojakiego rodzaju (Levelt, 2001). Po pierwsze, obserwuje się błędy seman tyczne, które polegają na zastąpieniu jakiegoś słowa słowem bliskoznacznym (np. koń - szkapa) albo słowem należącym do kategorii nadrzędnej (koń zwierzę) lub podrzędnej (koń - ogier). Są to błędy wynikające z niedostatecznie starannego wyboru lemm. Po drugie, błędy mogą mieć charakter fonetyczny, gdy właściwa głoska zostaje wyparta przez głoskę podobną, ale błędną (np. podać -
618
Rozdział 13. Język i mowa
dodać) albo gdy używamy zupełnie innego słowa tylko dlatego, że jest fonetycznie podobne do tego, co chcieliśmy wyrazić (np. historyczny - histe ryczny). Błędy drugiego rodzaju są wynikiem nie dość starannego wyboru leksemów. Inna grupa danych potwierdzających teorię dwóch etapów: wyboru lemm i wyboru leksemów, to obserwacje z badań nad działaniem dystraktorów. Eksperymenty te polegają na tym, że osoba badana opisuje treść obrazka; przypuśćmy, że na obrazku znajduje się koń. W tym samym czasie eksponuje się słowo-dystraktor, które jest podobne do słowa „koń” semantycznie (np. ogier, klacz) lub fonetycznie (np. goń, słoń). Dystraktory semantyczne wydłużają czas potrzebny na zainicjowanie wypowiedzi i zwiększają ryzyko wystąpienia błędu semantycznego, ponieważ prawdopodobnie zakłócają proces wyboru lemm. Dystraktory te nie mają jednak żadnego wpływu na pojawienie się błędów fonetycznych. Z kolei dystraktory drugiego rodzaju nie przyczyniają się do powstania błędów semantycznych, choć zwiększają prawdopodobieństwo po myłek fonetycznych. Co więcej, charakter tych błędów da się przewidzieć na podstawie tego, jaki dystraktor fonetyczny się pojawił i w którym momencie, ponieważ dystraktory fonetyczne prawdopodobnie zakłócają proces wyboru leksemów (Levelt, 2001). Na korzyść tej koncepcji przemawia też fakt, że stwo rzono jej model obliczeniowy w postaci programu WEAVER++ (Levelt i in., 1999), który generuje efekty przewidywane przez teorię i zgodne z obserwacjami empirycznymi. Koncepcja ta jest jednak krytykowana przez autorów, którzy sprzeciwiają się dzieleniu procesu wytwarzania mowy na odrębne etapy. Są to głównie przedsta wiciele konekcjonizmu, którzy tworzą tzw. interakcyjne modele mówienia. Cho dzi o interakcję między różnymi poziomami komunikatu werbalnego: fonetycz nym, semantycznym, syntaktycznym i pragmatycznym. Na przykład Gary Dell (1986, 1995) uważa, że wytwarzanie mowy angażuje jednocześnie wszystkie poziomy języka. Co więcej, procesy pozornie późniejsze, np. kodowanie fono logiczne, wpływają na procesy pozornie wcześniejsze, takie jak dobór znaczeń i tworzenie intencji wypowiedzi. Dell sądzi, że znaczenia i brzmienie wszystkich dostępnych nam słów tworzą rozległą sieć, podobną do sieci semantycznych. W klasycznych modelach sieciowych węzłami sieci były znaczenia; tutaj węzłami sieci są słowa na wszystkich poziomach analizy, a także reguły syntaktyczne. Wstępnie aktywowany węzeł takiej sieci, reprezentujący część planowanego przekazu, aktywuje węzły sąsiednie, zgodnie z modelem rozprzestrzeniającej się aktywacji. Pobudzenie sieci doprowadza do uaktywnienia konkretnych lekse mów. Ich aktywizacja zwrotnie oddziałuje na te elementy sieci, które reprezentują planowany sens przekazu. W przypadku niezgodności słów z sensem może nastąpić korekta, przy czym zmiany mogą dotyczyć każdego poziomu przekazu, od dźwięków poprzez słowa aż do pojęć. Po dokonaniu korekty i uzyskaniu spójności sieć generuje ciąg głosek, czyli sensowną wypowiedź. Model Della zasługuje na uwagę jako próba opisu samoorganizującej się sieci zdolnej do wytwarzania mowy. Modele etapowe, zwłaszcza wczesny model Levelta (1989), stoją pod tym względem na nieco gorszej pozycji, ponieważ niezbyt dobrze sobie radzą z problemem homunculusa: „ktoś” siedzi w umyśle i planuje wypowiedź, od czego zaczyna się cały proces leksykalizacji. Modele interakcyjne są wolne od tego zarzutu, ale - jak się wydaje - nieco gorzej sobie radzą z wyjaśnieniem wszystkich faktów empirycznych, zwłaszcza błędów i przejęzyczeń.
13.4. Rozumienie przekazów językowych
619
13.4. Rozumienie przekazów językowych Rozumienie przekazów językowych jest jednym z najtrudniejszych i najbardziej złożonych zadań poznawczych, z czego zazwyczaj nie zdajemy sobie sprawy, ponieważ znaczna część zaangażowanych w tę czynność procesów przebiega automatycznie. Rozumienie wymaga przede wszystkim uaktywnienia odpo wiednich struktur wiedzy, zapisanych w pamięci trwałej, głównie semantycznej. Ponadto konieczne jest intensywne wykorzystanie pamięci roboczej, często na granicy jej wydolności. W rozumieniu biorą również udział procesy myślenia, rozumowania i wnioskowania. Ale wszystkie te złożone procesy poznawcze nie miałyby sensu, gdyby nie elementarne procesy percepcyjne, odpowiedzialne za sensoryczną analizę komunikatu słownego lub pisemnego. Znaczna część tego podrozdziału będzie poświęcona rozumieniu mowy, ale procesy zaangażowane w tę czynność zazwyczaj biorą również udział w przetwarzaniu tekstów pisanych. Idee przedstawione poniżej oparto głównie na fundamentalnych pracach Waltera Kintscha i Van Dijka (Kintsch, 1988, 1998; Kintsch, Van Dijk, 1978; Van Dijk, Kintsch, 1983) dotyczących rozumienia tekstu.
13.4.1. Złamanie kodu Pierwszym zadaniem słuchacza jest dokonanie podziału nieprzerwanego potoku głosek na jednostki (segmenty), odpowiadające poszczególnym słowom lub związkom frazeologicznym. Do słuchacza dociera np. ciąg głosek: wczorajbyłasobotaiposzliśmydokina, co jest swoistym szyfrem. Aby coś z tego zrozumieć, trzeba złamać kod, w którym zapisano sens wypowiedzi, czyli w pierwszej kolejności rozłożyć ciąg fonemów na segmenty. W piśmie segmentacja dokonuje się dzięki znakom spacji; w przekazach ustnych nie ma jawnych znaków rozdzielających, w związ ku z czym słuchacz musi wykonać to zadanie sam. Kierowanie się pauzami, jakie czyni mówca, może być zwodnicze, ponieważ pauzy mają przede wszyst kim funkcję poznawczą (ułatwiają mówcy zaplanowanie wypowiedzi), a nie komunikacyjną. Dlatego dłuższe pauzy pojawiają się zazwyczaj między frazami, czyli zbyt rzadko, aby mogły służyć jako pomoc w segmentacji. Pauzy krótsze pojawiają się wewnątrz fraz, ale nie rozdzielają słów. Dlatego dokonując segmentacji, słuchacz musi kierować się innymi wskazówkami, takimi jak pro zodia (intonacja, akcent, rytm), kontekst ogólny, a przede wszystkim kontekst wewnątrzjęzykowy. Wracając do powyższego przykładu, pierwsza głoska nic nam nie mówi, bo słów zaczynających się od „f” jest bardzo wiele3; dwie początkowe głoski „fć” znacznie zawężają liczbę kandydatów, a trzecia głoska sugeruje, że prawie na pewno chodzi o słowo „wczoraj” lub pochodne (np. wczorajszy). 3 Łamanie kodu dokonuje się na poziomie fonetycznym, zatem pierwszą gioską w wyrazie „wczoraj” jest „f”, a nie „w”, bo inaczej ten wyraz piszemy, a inaczej go wymawiamy. Drugą głoskę trzeba zapisać jako „ć”, a nie „cz” itd.
620
Rozdział 13. Język i mowa
Proces identyfikacji poszczególnych słów w potoku żywej mowy dobrze opisuje model kohorty (Marslen-Wilson, 1987; Marslen-Wilson, Tyler, 1980), według którego słuchacz rozpoznaje słowa, systematycznie zawężając listę potencjalnych „kandydatów”, czyli zmniejszając kohortę możliwych jednostek leksykalnych aż do momentu, gdy nie będzie innego wyboru. Słowo „wczoraj” jest rozpoznawalne już po pierwszych czterech głoskach (fćor..), co oznacza, że w tym momencie kohorta została zawężona do jednego elementu. Oznacza to również, że dwie ostatnie głoski (aj) są nadmiarowe. Taka redundancja jest typowa dla języków naturalnych, a przy tym funkcjonalna, ponieważ słuchacz, wiedząc o jakie słowo chodzi, zanim mówca je wypowie do końca, może przeznaczyć dany mu „za darmo” czas na antycypację kolejnych słów, a także na inne procesy uwikłane w rozumienie komunikatu werbalnego. Złamanie kodu nie ogranicza się bowiem do trafnej segmentacji. Jego istotą i sensem jest przekład kodu akustycznego na znaczenia, czyli elementarne porcje wiedzy przechowywane trwale w pamięci w postaci pojęć. Podział potoku słów na jednostki tylko wtedy ma sens, gdy te jednostki odpowiadają czemuś sensownemu, czyli poszczególnym znaczeniom. Wynika stąd, że w procesie deszyfracji mowy współwystępują dwie czynności: segmentacja i odczyt znaczeń zapisanych w pamięci semantycznej. Zresztą obie czynności nawzajem się wspomagają. Segmentacja byłaby niemożliwa bez wstępnej hipotezy na temat znaczenia słowa: tylko znaczenie eliminuje kolejne elementy z kohorty, aż do momentu, gdy wyeliminuje się wszystkich kandydatów z wyjątkiem jednego. W języku obcym segmentacja po prostu nie jest możliwa, nawet jeśli ktoś do nas mówi głośno i wyraźnie. Z drugiej strony bez stopniowo postępującej segmentacji odczyt znaczeń byłby bardzo utrudniony, a na pewno spowolniony. Dorosły, wykształcony osobnik dysponuje leksykonem w liczbie ok. 100 000 słów. Odnalezienie w tak rozległym magazynie właściwego słowa we właściwym momencie jest bardzo dużym wyzwaniem dla systemu poznawczego i jego ograniczonych możliwości. Dzięki stopniowemu ograniczaniu kohorty, liczba potencjalnych znaczeń gwałtownie maleje. Łatwiej nam przywołać wszystkie znaczenia słów zaczynających się na „fc..” (np. „fćesny, fćuwa) niż słów za czynających się na f. Poza tym raz zidentyfikowane słowo, np. „fćoraj”, działa jako pryma semantyczna, czyli ułatwia przetwarzanie słów zbliżonych znacze niowo. Słowa pojawiające się w przekazie jako dalsze będą tym samym iden tyfikowane szybciej, pod warunkiem że okażą się w jakiś sposób powiązane semantycznie ze słowem „wczoraj”. Łamanie kodu akustycznego u dorosłych posługujących się językiem ojczystym dokonuje się automatycznie i bezwysiłkowo. Stanowi jednak po ważne wyzwanie dla kogoś, kto posługuje się słabo opanowanym językiem obcym. Osoba taka nie ma wykształconych umiejętności automatycznego dzielenia potoku fonemów na słowa, przez co nie jest w stanie wiele zrozumieć mimo dobrej niekiedy znajomości poszczególnych słów. Znaczenia, zakodo wane w postaci pojęć, nie uaktywniają się, przez co nie jest możliwe zrozumienie przekazu. Dla takiej osoby tekst nabiera sensu po przekształceniu go w formę pisemną. Istotną przeszkodą jest też niewykształcona umiejętność wykorzystywania prozodii języka w celu identyfikowania słów i typowych związków frazeologicznych. Kiedy Anglik pyta: How are you?, a Francuz: Qu’est
13.4. Rozumienie przekazów językowych
621
que c’est?, słyszymy charakterystyczny zaśpiew, który jest ważną wskazówką rozpoznania sensu. Łamanie kodu akustycznego jest trudne nie tylko dlatego, że w żywej mowie brak jawnych wskazówek umożliwiających segmentację, ale również ze względu na fakt, że czynność ta musi się dokonać w czasie rzeczywistym. Podczas czytania możemy zawsze wrócić do wcześniejszych fragmentów, nie mówiąc już o tym, że w polu widzenia zawsze znajduje się więcej niż jedna litera - zwykle całe słowo lub nawet fraza. W przypadku rozumienia mowy słuchacz musi dekodować przekaz w czasie rzeczywistym i w tempie narzuconym mu przez mówcę. Aby to zadanie było w ogóle wykonalne, mówcy stosują rozmaite strategie ułatwiające zrozumienie, np. wielokrotnie mówią to samo, lekko pa rafrazując swoje wypowiedzi, korzystają z niewerbalnych wskazówek sugerują cych brak zrozumienia po stronie słuchacza itd. W procesie konwersacji obie strony stosują tego rodzaju strategie, wzajemnie ułatwiając sobie zadanie. Jest to jeden z przejawów tzw. zasady kooperacji (Grice, 1989). Ponadto niezwykle cennych wskazówek dostarcza intonacja, akcentowanie sylab i rytm wypowie dzi, czyli prozodyczne aspekty języka (Ferreira, 1993, 2001). To właśnie z ich pomocą dokonujemy skutecznej deszyfracji, mimo że musimy to uczynić w czasie rzeczywistym, a warunki odbioru nie zawsze są optymalne.
13.4.2. Rozbiór zdania Gdy uda nam się podzielić potok wymowy na poszczególne jednostki zna czeniowe, możemy ulec złudnemu przekonaniu, że oto zrozumieliśmy treść wypowiedzi. Byłby to wniosek nad wyraz przedwczesny, o czym przekonuje się każdy początkujący użytkownik języka obcego: zdanie przetłumaczone ze słow nikiem słowo po słowie rzadko ujawnia swój sens bez wniknięcia w ukryte relacje między słowami i bez wyróżnienia funkcji pełnionych przez każde słowo. Kolejny etap rozumienia wymaga bowiem logiczno-gramatycznego rozbioru zdania (parsing), czyli przede wszystkim wyróżnienia sprawcy (podmiot) i czyn ności (orzeczenie) oraz odróżnienie tych kluczowych elementów przekazu od atrybutów (przymiotniki) i okoliczności (np. przysłówki lub zdania podrzędne). Bardzo ważnym zadaniem jest też poprawne odczytanie relacji zakodowanych spójnikami (np. lub, albo, i, zatem, jeśli). Psychologiczne procesy rozbioru zdania w niczym nie przypominają żmud nej czynności znanej nam ze szkolnych lekcji gramatyki. Każdy użytkownik języka potrafi dokonać rozbioru zdania, nawet jeśli nigdy nie słyszał takich terminów, jak podmiot, orzeczenie, przydawka czy dopełnienie. Rozbiór zdania polega na utworzeniu umysłowej reprezentacji jego treści, czyli zbudowania „w wyobraźni” czegoś na kształt drzewka derywacyjnego (ryc. 13.1). Uważa się, że w wyniku rozbioru zdania tworzy się struktura poznawcza w formie propozycjonalnej, czyli w postaci sądu o obiektach i łączących je relacjach. Utworzenie takiej reprezentacji wymaga uaktywnienia wiedzy gramatycznej, która w większości jest ukryta, czyli trudna do zwerbalizowania. Wymaga też uwzględnienia wiedzy semantycznej, przywołanej z pamięci trwałej już na etapie łamania kodu. Na etapie rozbioru zdania semantyka bardzo silnie wspomaga
622
Rozdział 13. Język i mowa
syntaksę. Widać to szczególnie wyraźnie na przykładzie zdań wieloznacznych, zwanych też zdaniami „ślepej uliczki” (paradygmat 13.1), takich jak: Podszedł do dziewczyny z kwiatkiem.
Zdanie to można zrozumieć przynajmniej na trzy sposoby, z których jeden jest znaczeniowo absurdalny: mianowicie, że mężczyzna wspólnie z kwiatkiem podeszli do dziewczyny. Kwiatki nie chodzą, więc tę interpretację można od razu odrzucić. Pozostają dwie inne: mężczyzna podszedł do dziewczyny, która trzymała kwiatek, albo mężczyzna, który trzymał w ręku kwiatek, podszedł do dziewczyny. Większość osób, zapytanych o to, jaką sytuację opisuje powyższe zdanie, wybierze ostatnią interpretację. Pierwsza jest od razu eliminowana, ponieważ w polu semantycznym pojęcia „lwiątek” nie mieści się umiejętność chodzenia. Interpretacja druga wydaje się możliwa, ale mniej prawdopodobna, co wynika z wiedzy ogólnej, że to raczej mężczyźni dają kobietom kwiaty, a nie odwrotnie. Gdyby zdanie miało postać: Podszedł do dziewczynki z kwiatkiem,
druga interpretacja uzyskałaby znacznie więcej wyborów. Paradygmat 13.1
Zdania „ślepej uliczki” (garden path sentences) Zdania „ślepej uliczki” to szczególny rodzaj zdań dwuznacznych. Analizując ich treść słowo po słowie, słuchacz buduje wstępną interpretację sensu, aby w pewnym momencie przekonać się, że był w błędzie. Zdanie takie jak gdyby „wpuszcza słuchacza w maliny” , np.: Chłopiec odbił piłkę ręką potrącając kolegę. Niezależnie od liczby stopni swobody nie miałem. Henryk został porzucony odjechał. Henryk został porzucony samochód znaleziono w rowie.
Zdania „ślepej uliczki” są przejawem złego stylu pisarskiego. Piszący nie zdaje sobie sprawy z dwuznaczności tworzonych przez siebie zdań, bo sam rozumie je jednoznacznie. Nie tworząc alternatywnego modelu mentalnego, mówca nie bierze pod uwagę, że ktoś mógłby to uczynić i zrozumieć przekaz niezgodnie z intencją nadawcy. Aby uniknąć nieporozumień, piszący powinni używać jednoznacznych rozwiązań składniowych, jak również umiejętnie operować interpunkcją. Wszystkie przytoczone wyżej zdania tracą swą dwuznaczność po dodaniu przecinka: Chłopiec odbił piłkę, ręką potrącając kolegę. Chłopiec odbił piłkę ręką, potrącając kolegę. Niezależnie od liczby stopni, swobody nie miałem. Henryk został, porzucony odjechał. Henryk został, porzucony samochód znaleziono w rowie. Henryk został porzucony, samochód znaleziono w rowie.
W przekazie mówionym rolę przecinka powinny pełnić znaki prozodyczne, przede wszystkim pauzy i zmiany intonacji.
13.4. Rozumienie przekazów językowych
623
Zdania „ślepej uliczki” są często używane jako materiał w badaniach psycholingwistycznych, ponieważ pozwalają weryfikować konkurencyjne modele procesu rozbioru zdania. Typowa procedura (zob. np. Christianson i in.,2001) polega na wizualnej ekspozycji zdania słowo po słowie, w tempie stałym (np. 150 ms na słowo plus 20 ms na każdą literę) lub regulowanym przez osobę badaną. Zdania mogą też być eksponowane od razu w pełnej postaci. W pewnym mo mencie zdanie jest usuwane z ekranu, a osoba badana ma odpowiedzieć na pytanie dotyczące jego treści, np.: „Czy Henryk został porzucony?”. Mierzy się czas potrzebny na udzielenie odpowiedzi oraz stopień subiektywnego zaufania osoby badanej do swojego sądu. Christianson i współpracownicy (2001) wykazali, że czas odpowiedzi zależy od takich czynników, jak długość zdania, obecność lub nieobecność znaku przestankowego czy też obecność lub nieobecność dodatko wego słowa usuwającego dwuznaczność (np. „Henryk został a porzucony odjechał”). Manipulując takimi zmiennymi, badacz może analizować ukryte procesy logiczno-gramatycznego rozbioru zdania. W niektórych eksperymentach (np. Frazie, Rayner, 1982) dodatkowo analizuje się ruchy gałek ocznych, próbując na tej podstawie dociekać sposobu analizy zdania.
Badania prowadzone w paradygmacie „ślepej uliczki” pozwoliły wykryć kilka prawidłowości logiczno-gramatycznego rozbioru zdania. Pierwsza z nich to zasada późnego domknięcia, która głosi, że odbiorca stara się domknąć frazę najpóźniej, jak się da (Frazier, Rayner, 1982). Domykanie frazy polega na usta leniu granicy, poza którą zaczyna się nowa fraza zdaniowa. Na przykład w dwu znacznym zdaniu: Henryk został porzucony samochód znaleziono w rowie, pierwszą frazę można zamknąć już po drugim słowie („Henryk został”) albo dopiero po trzecim słowie („Henryk został porzucony”). W zależności od tego, gdzie ustanowimy granicę między frazami, dokonamy zasadniczo różnej in terpretacji zdania. W pierwszym przypadku porzucony jest samochód (w do myśle: po kradzieży), a Henryk został (w domyśle: w domu lub na jakimś spot kaniu); w drugim przypadku porzucony jest Henryk (w domyśle: przez żonę, narzeczoną lub kochankę), a samochód po prostu znaleziono w rowie. Z zasa dy późnego domknięcia wynika, że bardziej prawdopodobna będzie interpreta cja druga. Hipotetyczny parser zachowuje się tak, jak gdyby chciał objąć pierwszą frazą jak najwięcej słów, przez co w zdaniach „ślepej uliczki” wpada w pułapkę. Być może zasada późnego domknięcia jest przejawem ogólnej zasady skąpstwa poznawczego. Umysł ludzki „skąpi” swoich zasobów, a im więcej fraz w zdaniu, tym więcej tych zasobów trzeba wydatkować w celu dokonania rozbioru zdania (Daneman, Carpenter, 1980, 1983; King, Just, 1991). W związ ku z tym nie tworzy się nowej frazy tak długo, jak tylko jest to możliwe. Dane empiryczne na temat związków pojemności pamięci roboczej ze sprawnością w zakresie analizy zdań „ślepej uliczki” nie są jednak konkluzywne (zob. Waters, Caplan, 1996). Gdy odbiorca stwierdzi dwuznaczność zdania, musi ponownie dokonać rozbioru zdania, co wydłuża czas jego analizy. Niekiedy odbiorca nie zauważa dwuznaczności, zwłaszcza w przypadku, gdy obie interpretacje są dopuszczalne,
624
Rozdział 13. Język i mowa
a w każdym razie żadna nie jest absurdalna, jak w przypadku wyżej cytowanego zdania o Henryku. Ale nawet wtedy, gdy dwuznaczność wychodzi na jaw, pierwsza interpretacja nie zawsze zostaje odrzucona. Powtórna analiza zdania może więc być nie całkiem kompletna, a w umyśle odbiorcy tkwią aktywne po zostałości pierwszej analizy. Wykazali to Christianson i współpracownicy (2001), prosząc osoby badane o wyrażenie stopnia subiektywnego zaufania do sądów opartych na wstępnej, pozornie odrzuconej analizie zdań „ślepej uliczki”, jak też sądów opartych na powtórnej analizie, usuwającej dwuznaczność. Badani darzyli jednakowo dużym zaufaniem odpowiedzi poprawne oparte na powtórnej analizie, jak też odpowiedzi błędne oparte na analizie wstępnej. Byłby to interesujący przejaw sztywnego utrzymywania się sądów mimo ich nieadekwatności. Autorzy konkludują, że logiczno-gramatyczny rozbiór zdania niekoniecznie prowadzi do interpretacji idealnych; często przynosi po prostu interpretacje „dość dobre” czy też kompromisowe (por. Ferreira, Christianson, Hollingworth, 2001). Zdaniem autorów interpretacja przekazu raczej nie jest pełna i dokładna, a kończy się tak szybko, jak tylko odbiorca uzna, że coś zrozumiał. Podczas nieformalnej konwersacji kryteria tego, co subiektywnie akceptowalne, mogą być znacząco osłabione, co skutkuje dużą ilością interpretacji błędnych lub kompromisowych. Jeśli natomiast wynik rozmowy jest ważny, kryteria mogą zostać wyostrzone. Tak czy inaczej, logiczno-gramatyczny rozbiór zdania prowadzi do interpretacji, która jest subiektywnie akceptowalna, choć obiektywnie może odbiegać od tego, jak można by w ogóle takie zdanie zinterpretować. W momencie gdy dokona się rozbiór zdania, użytkownik języka przechodzi na poziom, który Chomsky nazwałby strukturą głęboką. Od tej pory powierz chniowa struktura zdania, a więc kod fonologiczny i zastosowane rozwiązania syntaktyczne, przestaje się liczyć, ponieważ nie warunkuje już zrozumienia. W konsekwencji owa powierzchniowa warstwa komunikatu językowego jest bardzo szybko zapominana. Nawet gdy treść zdania jest przechowana bardzo dobrze, jego forma zanika najpóźniej po kilkunastu sekundach (Bransford, Franks, 1971). Wyjątkiem są zdania, które tracą sens, jeśli się ich nie zapamięta w postaci dosłownej, np. dowcipy słowne. Ludzie, którzy „zarzynają” dowcipy, to po prostu ofiary ogólnego prawa psychologicznego, które głosi, że powierz chniowa forma wypowiedzi jest zapominana tak szybko, jak tylko zostanie zbu dowana reprezentacja głęboka. Uważa się (zob. np. Van Dijk, Kintsch, 1983), że po dokonaniu rozbioru zdania treść przekazu przechowywana jest w postaci propozycjonalnej, tj. w postaci sądów składających się z predykatów (np. czyn ność, atrybut) i argumentów (np. podmiot zdania). Języki różnią się ze względu na to, jak działa w nich hipotetyczny parser, czyli struktura odpowiedzialna za rozbiór zdania. W języku angielskim, w którym kolejność wyrazów w zdaniu jest dość sztywna, a rzeczowniki poprzedzające inne rzeczowniki mogą funkcjonować przymiotnikowo (np. Snake River = Rzeka wężowa), główne zadanie parsera polega na przypisaniu poszczególnym słowom odpowiednich funkcji, np. podmiotu, orzeczenia lub dopełnienia. W językach fleksyjnych, w których forma gramatyczna słowa różni się w zależności od osoby, czasu i trybu, szyk wyrazów w zdaniu może być luźniejszy. Inwersja słów w języku angielskim może całkowicie zmienić sens zdania, jak w przykładach: John loves Mary i Mary loves John.
13.4. Rozumienie przekazów językowych
625
Inwersja w jeżyku polskim nieco przesuwa akcenty, ale zasadniczo nie powoduje zmiany znaczenia: Jaś kocha Małgosię i Małgosię kocha Jaś. Dlatego w przypadku języka polskiego parser odpowiada przede wszystkim za prawidłową interpretację wskazówek fleksyjnych (końcówki definiujące rodzaj, czas i tryb gramatyczny), a w mniejszym stopniu za interpretację, który z rze czowników dotyczy sprawcy, a który jego atrybutów. Istotnym zadaniem parsera w większości języków indoeuropejskich jest analiza zaimków względnych, np. ten, ta, oraz spójników, np. który. Nieumiejętne operowanie tymi wyrazami wprowadza dwuznaczność, którą może usunąć tylko sprawny rozbiór zdania, jak w przypadku zdania: „Wypił tego popołudnia piwo, które było bardzo upalne”.
13.4.3. Budowa modelu sytuacyjnego i wnioskow anie Zdania rzadko występują pojedynczo, zazwyczaj tworzą dłuższy tekst lub dialog. W związku z tym rozumienie komunikatu werbalnego nie może się zakończyć wraz z rozbiorem zdania. Kolejny krok to budowa poznawczej re prezentacji szerszego kontekstu, w jakim zanurzony jest przekaz. Zdanie: „Podszedł do dziewczyny z kwiatkiem”, może być różnie zrozumiane, w zależ ności od tego, czy stanowi część opowiadania o randce, o pokojowej mani festacji czy też o uroczystości ślubnej. Poznawcza reprezentacja szerszego kontekstu ma charakter nietrwały i przybiera postać modelu mentalnego (zob. rozdz. 2); na gruncie psycholingwistyki ten rodzaj reprezentacji nosi nazwę modelu sytuacyjnego (Van Dijk, Kintsch, 1983; Zwaan, Radvansky, 1998). Model sytuacyjny jest niezbędnym warunkiem zrozumienia, jeśli przekaz zawiera wiele luk wymagających wypełnienia poprzez wnioskowanie. Zrozu mienie zdania: „Henryk został, porzucony odjechał”, wymaga pewnego wysiłku intelektualnego, nawet jeśli wcześniej dokonano poprawnego rozbioru logiczno-gramatycznego. Za tymi czterema słowami kryje się cała historia: zapewne jest to opowieść o rywalizacji dwóch mężczyzn o kobietę, która porzuciła nieznane go nam z imienia osobnika i wybrała Henryka. Skoro tak, to ów porzucony musiał być wcześniej z kobietą w dłuższym związku, bo inaczej nie uzyskałby statusu porzuconego. Z kolei Henryk, jako zwycięzca rywalizacji, pozostał przy kobiecie w sensie dosłownym (jest teraz przy niej) lub metaforycznym (jest z nią związany, ale fizycznie też mógł wyjechać). Możemy ten model sytuacyjny uzupełniać do woli w zależności od własnej wyobraźni, przy czym tylko niektóre elementy są rzeczywiście niezbędne do zrozumienia. Jak twierdzą McKoon i Ratcliff (1992), niektóre wnioski są wyciągane automatycznie przez każdego odbiorcę komunikatu, ponieważ warunkują usunięcie elementarnej niespójności lub dwuznaczności. Dotyczy to w szczegól ności kwestii, do czego odnosi się zaimek względny lub kto jest podmiotem w zdaniu. Inne wnioski wykraczają daleko poza dosłowny sens przekazu (Graesser, Singer, Trabasso, 1994). Wprowadzają przez to niepotrzebny nad miar, który może utrudnić porozumienie, zwłaszcza jeśli odbiorca domyśla się zbyt wiele, budując na podstawie ograniczonej liczby przesłanek rozbudowaną, ale pozbawioną podstaw interpretację.
626
Rozdział 13. Język i mowa
Budowę modelu sytuacyjnego kształtuje wiele czynników, przede wszyst kim znajomość tematu. Wystarczy krótki fragment prozy opatrzyć tytułem, aby znacząco poprawić jego zrozumienie i przechowanie treści w pamięci (Bransford, Johnson, 1972). Instrukcja obsługi pralki staje się zupełnie niezrozumiała, jeśli słowa typu „prać” lub „odwirować” zastąpić mniej oczywistymi odpowied nikami, a przed wszystkim - gdy pozbawić ją tytułu. Z podobnym zjawiskiem mamy do czynienia, gdy student słucha wykładu na zupełnie nieznany mu temat. Zrozumienie poszczególnych słów czy nawet zdań nie prowadzi do zrozumienia sensu wykładu, ponieważ nie jest możliwe zbudowanie modelu sytuacyjnego. Model to swoisty mikrokosmos, zawierający podstawowe informacje na temat osób, przedmiotów, czynności, okoliczności, czasu i innych istotnych elemen tów sytuacji, której dotyczy przekaz lub w której ramach dokonuje się konwersacja. Powstaje on w umyśle słuchacza jednocześnie drogą oddolną, tj. na podstawie wcześniej rozebranych zdań, których treść jest zapisana w formie propozycjonalnej, jak też drogą odgórną, na podstawie ogólnej wiedzy i znajomości kontekstu. Oprócz znajomości tematu, na budowę modelu sytua cyjnego mają wpływ schematy poznawcze i skrypty, które jak gdyby definiują sens przekazu językowego, udzielając nam informacji, o co chodzi i o czym, ogólnie rzecz biorąc, mówimy. Gdy w restauracji podchodzi do nas kelner, pytając: „Czy coś podać?”, nie mamy trudności ze zrozumieniem treści pytania. To samo pytanie byłoby trudne, gdyby zadał je konduktor w pociągu. Szczególną rolę w rozumieniu przekazów językowych odgrywają tzw. schematy narracyjne, czyli elementy wiedzy zorganizowane ze względu na epi zody (Kintsch, 1977). Każdy epizod ma swoją dynamikę, czyli zawiązanie akcji, jej rozwinięcie i rozwiązanie, podobnie jak w antycznej tragedii i klasycznej prozie narracyjnej. Według schematów narracyjnych organizujemy swoją pa mięć autobiograficzną: wydarzenia z własnej przeszłości są wielokrotnie po wtarzane, z zachowaniem kolejności i dynamiki zdarzeń. Często dochodzi wówczas do zmian i przekłamań, ponieważ treść pamięci coraz bardziej uza leżnia się od przyjętego schematu. Ten może zresztą ulec zmianie, przez co wcześniejsze wersje epizodów z własnej biografii tracą swą ważność. Schemat narracyjny wpływa na rozumienie przekazu, jeśli określone porcje wiedzy na bierają sensu dopiero w kontekście całej historii. Na przykład zdanie: „Trzeciego nie obronił”, uzyskuje sens jako część opowieści o meczu piłkarskim, a traci ów sens, gdy schemat narracyjny ulega zmianie lub gdy nie jest w ogóle przywołany. Procesy zaangażowane w budowanie modelu sytuacyjnego to przede wszystkim rozumowanie nieformalne (zob. rozdz. 10), czyli wnioskowanie na podstawie swobodnie wybranych przesłanek, nie zawsze zwerbalizowane. Niektóre ważne przesłanki mogą nie być dostępne, ponieważ mówca nie wyraził ich wprost. Zachodzi przecież różnica między tym, co pomyślane, a tym, co powiedziane. Mówca, konstruując wypowiedź, przekazuje pewne treści jawnie, a inne domyślnie. Może np. pominąć ważną część przekazu, ponieważ sądzi, że odbiorca dysponuje tą wiedzą, albo dlatego, że uważa pewne sprawy za oczywiste. Odbiorca musi więc odróżnić to, co mówca chciał przekazać, od tego, co rzeczywiście przekazał. Treści rzeczywiście przekazane to przesłanki jawne, a treści domyślne to przesłanki niejawne. Te ostatnie mogą znacząco odbiegać od rzeczywistych intencji nadawcy, w związku z czym wynik nie formalnego rozumowania przeprowadzonego przez odbiorcę może się znaczą
13.4. Rozumienie przekazów językowych
627
co różnić od tego, co chciał przekazać nadawca komunikatu. W rezultacie obserwuje się bardzo częste przypadki niezrozumienia, zrozumienia cząstko wego lub opacznego. W każdym razie złamanie kodu fonologicznego, rozbiór zdania, a nawet zbudowanie wstępnego modelu sytuacyjnego nie zwalnia odbiorcy komunikatu językowego od myślenia. Przetwarzanie języka wymaga dalszych intensywnych procesów wnioskowania o wiedzy, cechach i stanach umysłu osób zaangażowa nych w wymianę myśli za pośrednictwem języka. Dotyczy to w szczególności konwersacji, czyli komunikowania obustronnego, dokonującego się „tu i teraz”. Reguły rządzące wnioskowaniem podczas rozmowy nazwano implikaturą. Grice (1989), uznając różnicę między treścią wypowiedzi a zamierzonym sensem komunikatu, wyróżnił dwa rodzaje implikatury: konwencjonalną i konwersacyjną. Implikatura konwencjonalna polega na tym, że użycie określonego słowa implikuje znaczenie, przypisywane mu na mocy konwencji i konsensu spo łecznego. Mówiąc „koń”, mamy na myśli duże zwierzę z kopytami, ogonem i grzywą, a nie konika morskiego czy pasikonika, i ta implikacja jest zazwyczaj dość dobrze odbierana przez słuchaczy. Natomiast implikatura konwersacyjna polega na domyślnym, wzajemnym szanowaniu reguł dobrej komunikacji, czyli uznawaniu zasady kooperacji i czterech maksym konwersacyjnych (zob. ramka 13.5). Wnioskowanie w procesie rozumienia mowy pełni dwie funkcje (Warren, Nicholas, Trabasso, 1979). Pierwsza polega na uzupełnianiu luk w strukturze przekazu. Zdanie: „Uciekł mi autobus i musiałem pojechać taksówką”, mówi dużo, ale nie wszystko. Nie mówi np. tego, że mając wybór, jeżdżę autobusem, że robię to prawdopodobnie z oszczędności („musiałem pojechać...”), że nie poruszam się po mieście prywatnym samochodem. Wszystkie te elementy musimy, jako odbiorcy komunikatu, dopiero wywnioskować, ale robimy to automatycznie i w zasadzie bezbłędnie. Tego rodzaju wnioski można nazwać domyślnymi (default inferences-, Leahey, Harris, 2001). Interesujące, że nie wyciągamy wielu innych możliwych w tej sytuacji wniosków, np. takiego, że autobusy uciekają na widok ludzi. Oznacza to, że wnioski domyślne są przefiltrowane przez ogólną wiedzę o świecie, zwaną zdrowym rozsądkiem. Wnioski drugiego rodzaju służą budowaniu połączeń między nową wiedzą, zawartą w komunikacie, a wiedzą nabytą już wcześniej i przechowywaną w pamięci trwałej. Połączenia tego typu to w gruncie rzeczy istota tego, co nazywamy rozumieniem. Dopiero gdy ktoś mówi nam, że musiał wziąć taksów kę, bo uciekł mu autobus, rozumiemy dlaczego nie ma drobnych na kawę. Zro zumienie wykładu możliwe jest tylko wówczas, gdy student dowiaduje się cze goś nowego, co może asymilować z istniejącymi strukturami wiedzy. Wykład niezawierający żadnych nowych treści jest nudny, ale wykład zawierający wy łącznie nowe treści jest niezrozumiały. Szczególną kategorią wypowiedzi wymagających wnioskowania są komu nikaty nie wprost (indirect speech). Względy grzeczności wymagają, by pole cenia formułować w postaci pytań lub delikatnych sugestii (np. „Czy mógłbyś zgasić światło?”). Tego typu przekazy wymagają odkrycia prawdziwych intencji nadawcy, co zwykle nie jest trudne, ponieważ każdy użytkownik języka jest pod tym względem bardzo intensywnie szkolony w procesie socjalizacji.
628
Rozdział 13. Język i mowa
13.5. Podsumowanie Treść tego rozdziału powinna upewnić nas, że ludzie to wprawdzie istoty ga dające, ale na pewno nie automaty. Tym samym sentencja de la Mettrie’ego, od której zaczęliśmy ten rozdział, powinna być zasadniczo zmodyfikowana. Udział automatyzmów w przetwarzaniu języka jest bez wątpienia bardzo duży. Auto matycznie deszyfrujemy kod fonetyczny lub alfabetyczny, bez większego trudu przywołujemy z pamięci słowa i ich znaczenia, nie kierujemy się też głębszą refleksją w doborze i użyciu struktur gramatycznych. Niekiedy nasza świado mość metajęzykowa nieco wzrasta i wtedy używamy języka w sposób bardziej kontrolowany. Oznacza to, z jednej strony, szansę na lepszy dobór słów i struk tur składniowych, ale z drugiej strony niesie ryzyko spowolnienia w przetwa rzaniu języka i zwiększa koszty tego procesu. Jeśli chodzi o odbiór i rozumienie komunikatów językowych, udział procesów automatycznych i nieświadomych jest również bardzo duży. Zwykle nie zdajemy sobie sprawy, jak i dlaczego odbieramy sens przekazu, koncentrując się wyłącznie na końcowym efekcie tego procesu, czyli właśnie na sensie cudzej wypowiedzi. Protest przeciwko definicji, że „człowiek to gadający automat”, nie wynika zatem z odrzucenia wyjaśnień odwołujących się do czynności automatycznych, ale z uznania faktu, że mimo tak dużej dozy automatyczności, przetwarzanie języka jest procesem bardzo dokładnie kontrolowanym. Każde użycie języka wymaga przetwarzania na wszystkich poziomach, od fonetycznego do dyskursywnego. Co więcej, efekty pożądane na poziomie dyskursywnym wymagają określonych rozwiązań na niższych poziomach języka, nie wyłączając fonetycznego. Język widziany z tej perspektywy jest więc zupełnie unikalnym zjawiskiem psychologicznym, szcze gólnie jeśli chodzi o poznawcze mechanizmy jego używania i rozumienia.
Słownik terminów
Abstrahowanie (abstraction) - proces wyróżniania w grupie obiektów pewnych cech przy pominięciu pozostałych (w oderwaniu od nich). Abstrahowanie negatywne - proces polegający na pomijaniu cech nieistotnych. Abstrahowanie pozytywne - proces polegający na wyodrębnianiu cech istotnych. ACT (Adaptive Control of Thought) - model architektury poznawczej, skonstruowany w celu wyjaśniania i modelowania złożonych procesów poznawczych (myślenia, posługiwania się językiem, podejmowania decyzji); ACT odwołuje się do systemów pamięci deklaratywnej i proceduralnej oraz mechanizmu kontrolnego. Afordancje (affordances) - akty lub zachowania, których wykonanie umożliwiają nam pewne obiekty, miejsca lub zdarzenia. Na przykład widząc drabinę spostrzegamy możliwość wspinania się po niej. Algorytm (algorithm) - 1. Systematyczna metoda przeszukiwania pola problemowe go, polegająca na sprawdzeniu wszystkich potencjalnych dróg rozwiązania problemu. Przeciwieństwo heurystyki w znaczeniu pierwszym. 2. Ścisły, jednoznaczny, nieza wodny i powtarzalny przepis na realizację konkretnego zadania, np. rozwiązanie problemu. 3. Formalna struktura programu komputerowego. Alokacja zasobów uwagi (allocation of attentional resources) - przeznaczenie za sobów uwagi do wykonania określonego zadania poznawczego, a zwłaszcza większej liczby jednoczesnych zadań. Aktywacja informacji (activation) - hipotetyczny mechanizm przywoływania infor macji z pamięci trwałej do pamięci roboczej; najbardziej aktywna informacja znajduje się w ognisku uwagi i staje się dostępna świadomemu przetwarzaniu; przeniesienie uwagi na inne obiekty powoduje zmniejszenie lub utratę dostępu do informacji, które były niedawno aktywne. Aktywne przechowywanie (rehearsal) - mechanizm przechowywania informacji w pętli fonologicznej, polegający na aktywnym odświeżaniu jej zawartości, reali zowanym poprzez bezgłośne powtarzanie przechowywanej informacji. Amnezja (amnesia) - czasowe albo trwałe zaburzenie jednego bądź wielu systemów pamięciowych; może być ona skutkiem jakiegoś urazu: uderzenia w głowę, uszkodze nia mózgu wywołanego infekcją, toksyną lub po prostu efektem starzenia się; w za leżności od chronologii zdarzeń objętych amnezją wyróżnia się dwa jej typy: amnezję następczą, polegającą na ograniczeniu albo utracie zdolności zapamiętywania nowych informacji i amnezję wsteczną, która jest zaburzeniem odpamiętywania informacji, nabytych przed wystąpieniem czynnika powodującego amnezję. Amodalność (amodality) - właściwość reprezentacji trwałej, zgodnie z którą kon strukcja umysłowa jest niezależna od kontaktu sensorycznego zaangażowanego podczas jej tworzenia.
630
Słownik terminów
Analizy środków i celów, metoda (means/ends analysis) - metoda rozwiązywania problemów; podział problemu zasadniczego na mniejsze części (podproblemy), z których każdy ma swój cel, dalekosiężnie podporządkowany realizacji celu zasad niczego; wymaga analizy sytuacji problemowej, aby wyodrębnić problemy cząstkowe. Analogia (analogy ) - związek między dwoma obiektami, oparty na podobieństwie ich wewnętrznej struktury lub podobieństwie relacji zachodzących w obrębie porówny wanych członów. Aparatu fotograficznego, metafora - naiwny pogląd, według którego percepcja wzrokowa funkcjonuje podobnie do aparatu fotograficznego, to znaczy biernie i do kładnie odzwierciedla szczegóły spostrzeganego obiektu. Architektura umysłu (cognitive architecture) - ogólna teoria systemu poznawczego, zawierająca opis najważniejszych składników umysłu i ich wzajemne relacje. Asocjacjonistyczna koncepcja percepcji (associative theory of perception) - pogląd w sporze o naturę percepcji, zgodnie z którym spostrzeżenie jest prostą sumą wrażeń i powstaje jako ich połączenie. Asymetrii wokół punktu fiksacji, efekt - zjawisko, zgodnie z którym obszar wokół punktu fiksacji w naturalnym kierunku czytania jest trzykrotnie większy od obszaru wokół punktu fiksacji w kierunku przeciwnym. Atmosfery, efekt (atmosphère effect) - błąd rozumowania sylogistycznego, polegający na tendencji do generowania wniosków na podstawie atmosfery tworzonej przez kwantyfikatory zawarte w przesłankach. Badani będą skłonni częściej używać określonego kwantyfikatora we wniosku, jeśli pojawia się on w obu przesłankach jednocześnie. Automatyzacja (automatization) - proces, dzięki któremu czynność poznawcza lub motoryczna stopniowo uwalnia się spod kontroli poznawczej, przez co jest wyko nywana szybko i bez wysiłku, ale schematycznie. Balistyczność czynności automatycznej - właściwość polegająca na niemożliwości zatrzymania już uruchomionej czynności automatycznej. Bezgłośne powtarzanie (subvocal rehearsal) - podstawa mechanizmu aktywnego podtrzymywania informacji w pętli fonologicznej; wewnętrzne powtórki przechowy wanego materiału, podobne do bezgłośnej artykulacji mowy, zapobiegają utracie informacji. Bieżące przetwarzanie informacji (current processing) - jedna z funkcji centralnego systemu wykonawczego pamięci roboczej; realizacja operacji poznawczych wchodzą cych w skład aktualnie wykonywanej czynności poznawczej. Blokowe modele umysłu - grupa teorii, zakładających sekwencyjny i „oddolny” charakter przetwarzania informacji. Bodziec (stimulus) - zdarzenie w środowisku zewnętrznym, źródło energii zdolnej do zapoczątkowania procesu spostrzegania. Bodziec dystalny (distal stimulus) - bodziec początkujący proces spostrzegania, znajdujący się poza umysłem i odległy względem jego receptorów. Bodziec podprogowy (subliminal stimulus) - stymulacja, która jest wystarczająco silna, aby pobudzić narządy zmysłu, ale zbyt słaba, aby można ją było świadomie zauważyć. Bodziec proksymalny (proximal stimulus) - bodziec wewnętrzny i bliski, powstający wskutek bezpośredniego kontaktu bodźca dystalnego z narządem zmysłu. Bodziec zdegradowany (degraded stimulus) - stymulacja prezentowana w polu percepcyjnym w sposób nieoptymalny, a więc w warunkach uniemożliwiających pełną
Słownik terminów
631
recepcję sensoryczną; bodziec zdegradowany może być np. pozbawiony niektórych istotnych cech albo trudny do wyodrębnienia z tla. Bufor epizodyczny (episodic buffer) - podsystem pamięci roboczej, który przechowuje złożone informacje pochodzące jednocześnie z kilku modalności, reprezentowane za pomocą różnych kodów (werbalnego, wizualnego); uczestniczy w nabywaniu i wydobywaniu informacji z pamięci epizodycznej; charakteryzuje się ograniczoną pojemnością. Cecha (feature) - symboliczny i dyskretny (nieciągły, nieanalogowy) element reprezentacji umysłowej o wyraźnie określonych granicach; zestawy cech oraz relacje zachodzące między nimi reprezentują rzeczywistość. Cecha charakterystyczna - ta spośród cech wchodzących w skład pojęcia probabilis tycznego, która nie ma właściwości cechy istotnej; cecha typowa i często występująca, ale niekonieczna dla zdefiniowania kategorii obiektów. Cecha definicyjna (definitional feature, defining attribute) - ta spośród cech definiujących pojęcie probabilistyczne, która posiada właściwości cechy istotnej (tj. koniecznej, wspólnej wszystkim egzemplarzom). Cecha istotna - właściwość, która występuje u wszystkich obiektów należących do zbioru (kategorii). Cecha priorytetowa - właściwość bodźca umożliwiająca wczesne, szybkie, automa tyczne i przeduwagowe przetwarzanie informacji związanych z tą cechą. Cecha rdzenna (core feature) - cecha definicyjna kategorii obiektów, składająca się na jego „tożsamość”. Cecha semantyczna (semantic feature) - cecha definiująca znaczenie pojęcia; cechy semantyczne łączone są w znaczenia w taki sposób, aby było ono zgodne z przyjętym w języku użyciem słowa, oraz aby dwa różne słowa nie miały identycznego znaczenia; stanowi podstawę wyjaśnienia mechanizmu nawarstwiania się cech. Centralny system wykonawczy (central executive) - wg Alana Baddeleya podsystem pamięci roboczej, realizujący funkcje bieżącego przetwarzania danych, koordynacji buforów pamięci roboczej i monitorowania aktualnych procesów przetwarzania informacji; odpowiedzialny za wolicjonalne kierowanie uwagi. Chronometria umysłu (mental chronometry) - wykorzystanie czasu reakcji jako wskaźnika struktury i przebiegu procesów poznawczych. Czujność uwagi (vigilance) - trwała, przedłużona w czasie uwaga, rozumiana jako stan gotowości na detekcję, rozpoznanie i reakcję na niezwykle małe zmiany w środowisku, zachodzące w sposób trudny do przewidzenia w dłuższych odcinkach czasu. Czynność automatyczna - czynność, której przebieg jest relatywnie szybki, bezwysiłkowy i pozbawiony większych kosztów poznawczych, a jej realizacja dokonuje się bez namysłu i kontroli ze strony świadomości. Czynności pierwotnie automatyczne - czynności bezwysiłkowe, których uruchomie nie odbywa się całkowicie niezależnie od naszej woli i intencji. Czynności wtórnie automatyczne - czynności pierwotnie nieautomatyczne, które w wyniku nabywania wprawy wyzwalają się spod świadomej kontroli ze strony systemu poznawczego, a charakterystyki ich przebiegu nie różnią się od właściwości czynności automatycznych. Decyzja leksykalna (lexical décision) - decyzja, polegająca na stwierdzeniu czy po kazany ciąg liter jest słowem czy nie. Deproceduralizacja - poddanie kontroli procesu wtórnie automatycznego (zautoma tyzowanego w wyniku procesu nabywania wprawy).
632
Słownik terminów
Deprywacja sensoryczna (sensory deprivation) - znaczne obniżenie poziomu stymulacji sensorycznej, które występuje w wyniku eliminacji bodźców wzroko wych, słuchowych oraz dotykowych i z reguły prowadzi do wystąpienia halucynacji i urojeń. Desygnat (referent) - obiekt, do którego odnosi się słowo i jego znaczenie. Detekcji sygnałów, teoria (signal detection theory, SDT) - sposób analizy zmian w za kresie poprawności poziomu wykonania prostych czynności selekcji informacji. Zgod nie z tą koncepcją obserwator może popełnić jeden z dwóch rodzajów błędu: fałszywy alarm, gdy zareaguje na szum lub dystraktor, lub ominięcie, gdy zignoruje sygnał. Detektor cechy (feature detector) - grupa komórek zwojowych odpowiedzialna za detekcję pojedynczych właściwości stymulacji. Determinizmu językowego, hipoteza (lingusitic determinism) - hipoteza, według której struktury i pojęcia języka kształtują poznanie świata. Dezinformacji, efekt (disinformation effect) - zjawisko modyfikacji przywołań pamięciowych, wywołane błędną informacją wprowadzoną do pamięci; polega na zintegrowaniu faktów zaobserwowanych z faktami wywnioskowanymi, np. na podstawie sugestii, prowadzi do błędnego relacjonowania przebiegu zdarzeń. Dobrej figury, zasada (principle of good figure) - ogólna zasada organizacji percepcji, opisana przez psychologów postaci; głosi, że jeśli elementy pola percepcyjnego tworzą estetyczną lub logiczną całość, są spostrzegane jako „dobra” figura; elementy nie pasujące do takiej figury mogą być w percepcji pomijane lub zniekształcane. Docelowy, bodziec (target stimulus) - w procedurze poprzedzania: bodziec właściwy, eksponowany po bodźcu poprzedzającym (prymie); jego przetwarzanie jest mody fikowane przez uprzednią ekspozycję prymy. Drzewko derywacyjne - formalna struktura zdania, obejmująca co najmniej jedną frazę nominalną i co najmniej jedną frazę czasownikową. Dylemat - problem otwarty, złożony, dotyczący abstrakcyjnych zagadnień sztuki, nauki, moralności łub polityki. Dymensja łatwe-trudne - definiowanie problemu według kategorii wysiłku pozna wczego niezbędnego do wygenerowania rozwiązania. Dymensja proste-złożone - definiowanie problemu według kryterium poziomu kom plikacji modelu umysłowego, który adekwatnie opisuje strukturę problemu i proces jego rozwiązywania. Dystansu numerycznego, efekt - zjawisko, zgodnie z którym znacznie więcej czasu zajmuje porównywanie liczb o podobnej wielkości, a znaczniej mniej - liczb zde cydowanie różniących się wartościami. Egzaptacja (exaptation) - proces adaptacji struktur mózgowych, ukształtowanych w określonych warunkach środowiskowych, do nowych wymagań. Egzemplarz (exemplar) - konkretny przedstawiciel kategorii pojęciowej. Egzemplarzowy pogląd na naturę reprezentacji pojęciowych - stanowisko w sporze o naturę pojęć, zgodnie z którym reprezentacja pojęciowa jest odzwierciedlana w umyśle przez pojedyncze egzemplarze lub ich zbiory; jako punkt odniesienia w pro cesie kategoryzacji nowych egzemplarzy jest wykorzystywany desygnat najważniej szy, np. pierwszy napotkany w doświadczeniu indywidualnym. Elaboracja (elaboration) - opracowanie materiału polegające na nadaniu głębszego znaczenia informacji podlegającej kodowaniu; specyficznymi formami elaboracji jest powiązanie materiału z posiadaną wiedzą, poszukiwanie dodatkowych informacji, które prowadzą do doprecyzowania i uszczegółowienia materiału, a także poszuki wanie wyjaśnień, jeśli są potrzebne, aby zrozumieć materiał.
Słownik terminów
633
Eklektyczny pogląd w sporze o naturę reprezentacji pojęciowych - stanowisko w sporze o naturę pojęć, zgodnie z którym teorie cech, w szczególności teorie kla syczne, odnoszą się do pojęć matrycowych i abstrakcyjnych, a teorie wzorców, w szczególności teorie prototypów, odnoszą się do pojęć naturalnych i konkretnych. Ekonomia - zasada działania umysłu, polegająca na limitowaniu zakresu przetwa rzania informacji i powstrzymywaniu się od wykonywania czynności poznawczych bez koniecznej potrzeby. Ekspert (expert) - osoba dysponująca wiedzą obszerną, choć ograniczoną do wybranej dziedziny, a ponadto bardzo dobrze uporządkowaną, sproceduralizowaną i nadającą się do wykorzystania dzięki ogólnym schematom działania. Eksperta, efekt - sztywność poznawcza ekspertów podczas rozwiązywania nierutynowych problemów z dziedziny, w której się specjalizują. Eksperyment laboratoryjny - podstawowa metoda badawcza w psychologii, polega jąca na planowym manipulowaniu zmiennymi w kontrolowanych warunkach laboratoryjnych. Eksploracja (exploration) - zachowanie polegające na aktywnym poszukiwaniu informacji w otoczeniu, niekoniecznie w odpowiedzi na konkretne zapotrzebowanie. Epistemologia - teoria poznania, dział filozofii zajmujący się badaniem źródeł ro dzajów i mechanizmów poznania. Figura (figure, Gestalt) - spostrzegana postać lub całość, mająca zawsze konkretny kształt w porównaniu do bezkształtnego tła; jest ciągła i domknięta w sensie fizycznym, zawsze znajduje się na pierwszym planie, podczas gdy tło tylko ją otacza. Fiksacja funkcjonalna (functional fixedness) - jedna z przeszkód w rozwiązywaniu problemów; nieumiejętność oderwania się od typowych funkcji pełnionych przez obiekty; niezdolność do używania obiektów inaczej niż standardowo. Filozofia umysłu - dział filozofii, zajmujący się badaniem świadomości i innych wyższych funkcji poznawczych. Filtr uwagi (filter of attention) - hipotetyczny mechanizm selekcyjny skutecznie blokujący znaczną część docierającej do organizmu stymulacji sensorycznej, jedno cześnie umożliwiający informacjom ważnym dostęp do kolejnych etapów przetwa rzania. Flankerów, efekt (flanker effect) - zjawisko zakłócenia procesu detekcji sygnału przez pojawienie się dystraktorów w bliskim sąsiedztwie bodźców, na które należy reagować. Fonem, fonemiczny komponent strukturalny (phoneme) - dźwięk możliwy do wyartykułowania przez człowieka; składnik budulcowy wymawianych komunikatów językowych. Fraza czasownikowa (verb phrase) - struktura językowa, obejmująca czynność i jej okoliczności. Fraza nominalna (noun phrase) - struktura językowa, obejmująca sprawcę (podmiot) i jego atrybuty. Funkcje zarządcze (executive functions) - niespecyficzne mechanizmy kontroli czynności poznawczych, odpowiadające za ukierunkowanie zachowania. Gaworzenie (babbling) - okres w przyswajaniu języka przez dziecko, polegający na częstym powtarzaniu sylab i łączeniu ich w dłuższe ciągi. Generalizacja (generalization) - zjawisko towarzyszące proceduralizacji, polegające na uogólnianiu nabywanej wiedzy proceduralnej na szerszą klasę sytuacji. Geometryczne komponenty strukturalne (geons) - inaczej: geony. Elementarne jednostki reprezentacji obiektów fizycznych; 36 różnych kształtów geometrycznych,
634
Słownik terminów
takich jak np. blold, walce, sfery, luki czy ostrosłupy, które okazują się wystarczające do opisania zróżnicowania w zakresie wszystkich rejestrowanych obiektów rzeczy wistych. Geony (geons) - inaczej: geometryczne komponenty strukturalne. Głużenie (cooing) - okres w przyswajaniu języka przez dziecko, polegający na częstym powtarzaniu pojedynczych fonemów. Gramatyka generatywna (generative grammar) - koncepcja Noama Chomsky’ego, opisująca proces tworzenia gramatycznych wyrażeń językowych według reguł transformacji. Gramatyka uniwersalna (universal grammar) - niezmienniki językowe, czyli uniwersalne formy lingwistyczne, obecne w każdym ludzkim języku. Mogą przybierać postać syntalctyczną lub semantyczną. Grupowanie (chunking) - łączenie elementów prezentowanego materiału w większe całości, np. cyfr w liczby lub liter w słowa, w celu zapamiętania większej liczby elementów. Grupowanie kategorialne (categorical clustering) - organizowanie zapamiętywanego materiału ze względu na kategorie, do których należą jego elementy; w swobodnym odtwarzaniu prowadzi do ułatwienia w odpamiętywaniu materiału. Hamowanie behawioralne (behavioral inhibition) - tłumienie zbędnych, zazwyczaj dominujących reakcji. Hamowanie dominującej reakcji (dominant response inhibition) - powstrzymywanie się od wykonywania narzucającej się czynności, np. czytania „kolorowych słów” w efekcie Stroopa. Hamowanie percepcyjne (perceptual inhibition) - tłumienie odruchu sakkadowego. Hamowanie poznawcze (cognitive inhibition) - 1. Zdolność systemu poznawczego do „wyłączenia” procesu, który w danej sytuacji jest niepożądany lub kosztowny. 2. Jedna z funkcji zarządczych, której zadaniem jest: niedopuszczenie do niepożądanej reakcji, ignorowanie bodźców zakłócających lub tłumienie narzucających się reprezentacji umysłowych. Hamowanie powrotu (inhibition of return) - niedopuszczanie do powrotu uwagi do miejsca lokalizacji poprzedniego bodźca, jeśli ten bodziec miał być ignorowany; trudność w powtórnym przeniesieniu uwagi na miejsce, które uprzednio okazało się nieważne. Hamowanie uwagowego odruchu orientacyjnego - niedopuszczanie do przekierowania uwagi do miejsca lokalizacji nowego bodźca. Heurystyczna, funkcja - cecha modelu teoretycznego, pozwalająca badaczowi stawiać hipotezy badawcze i formułować oczekiwania co do wyników przyszłych obserwacji. Heurystyka (heuristic) - 1. Skrócona metoda przeszukiwania pola problemowego, polegająca na ominięciu wielu potencjalnych dróg rozwiązania problemu, jeśli przypuszcza się lub zakłada, że nie doprowadzą do rozwiązania; przeciwieństwo algorytmu. 2. Uproszczona reguła podejmowania decyzji lub wydawania sądów, zwykle z pominięciem logicznego rozumowania i skomplikowanych obliczeń statystycznych. Heurystyka dostępności (availability heuristic) - uproszczony i zawodny sposób wydawania sądów probabilistycznych, polegający na zawyżaniu prawdopodobieństwa wystąpienia tych zdarzeń, których przykłady łatwo jest wydobyć z pamięci. Heurystyka reprezentatywności (representativeness heuristic) - uproszczony i zawod ny sposób wydawania sądów probabilistycznych, polegający na zawyżaniu lub zani
Słownik terminów
635
żaniu prawdopodobieństwa wystąpienia zdarzeń, o których sądzimy, że są typowe lub reprezentatywne dla szerszej ldasy zdarzeń. Heurystyka zakotwiczenia i dopasowania (anchońng and adjustment) - zawyżanie lub zaniżanie szacowanego wyniku działań matematycznych (np. mnożenia) w zależ ności od tego, czy szereg liczb jest rosnący, czy malejący. Hiperregularyzacji, błąd (overregularization) - typowy błąd w procesie przyswajania języka przez dziecko; polega na ignorowaniu wyjątków i przypadków szczególnych oraz skłonności do stosowania zawsze regularnych struktur gramatycznych. Homunkulusa, problem (homunculus problem) - trudność opisu zjawiska kontroli poznawczej (samokontroli umysłu) bez odwoływania się do tajemniczego „ludzika”, który rzekomo tkwi w umyśle i sprawuje nad nim kontrolę. Imagen (imagen) - dowolna niewerbalna reprezentacja umysłowa utworzona w ramach podwójnego systemu kodowania. Implikacja (implication) - formuła logiczna, składająca się z dwóch zdań: poprzed nika i następnika, połączonych spójnikiem „jeżeli... to...”. Implikatura konwersacyjna (conversational implicature) - dofhyślne, wzajemne szanowanie reguł dobrej komunikacji, czyli uznawanie zasady kooperacji i czterech maksym konwersacyjnych. Indukcja nastawienia (set-inductioń) - uruchomienie efektu nastawienia po ekspo zycji początkowych elementów danego zadania, co prowadzi do wytworzenia sztyw nej procedury jego rozwiązywania; gdy procedura okazuje się nieskuteczna, trudno jest wygenerować nową. Inercja ideacyjna (ideational inertia) - obserwowane w twórczym rozwiązywaniu problemów usztywnienie się na jednym rodzaju generowanych rozwiązań; wytwa rzanie kolejnych odmian tego samego pomysłu lub skojarzenia. Inercja mentalna (mental inertia) - uporczywe stosowanie zautomatyzowanych schematów, mimo ich nieadekwatności do danej sytuacji. Inkubacja (incubation) - spontaniczna albo celowa przerwa w rozwiązywaniu problemu, pojawiająca się po doświadczeniu impasu w poszukiwaniu rozwiązania, poprzedzająca wgląd; pozwala na włączenie dodatkowych danych do przestrzeni problemu oraz osłabia działanie przeszkód w procesie poszukiwania rozwiązania. Instynkt językowy (language instinct) - według Stevena Pinkera, wrodzona zdol ność człowieka do szybkiego przyswajania języka naturalnego w kontekście spo łecznym. Integracja cech w obiekt - proces wyszukiwania w polu percepcyjnym obiektu spełniającego koniunkcyjne kryterium selekcji, czyli obiektu charakteryzującego się zestawem wszystkich właściwości uznawanych za kryterialne. Interferencja między językami - zjawisko polegające na tym, że znajomość więcej niż jednego języka zwiększa ryzyko pomyłki w doborze słów i wyrażeń, spowalnia pro cesy wydobywania słów z leksykonu mentalnego i wymaga zwiększenia kontroli na etapie artykulacji. Interferencja proaktywna (proactive interférence) - zakłócenie procesu nabywania, utrwalania albo przechowywania nowej wiedzy, wywołane wiedzą wcześniej nabytą, o ile między tymi dwoma rodzajami wiedzy występuje jakiś związek. Interferencja retroaktywna (rétroactive interférence) - zakłócanie procesu przecho wywania wcześniej nabytej wiedzy, wywołane wiedzą nabytą później, o ile między tymi dwoma rodzajami wiedzy występuje jakiś związek; zjawisko to jest tym silniejsze, im bardziej podobne są oba rodzaje materiału, im słabsze było opanowanie pierwszego materiału i im bardziej obszerny jest drugi materiał.
636
Słownik terminów
Interferencja strukturalna (structural interference) - zjawisko, zgodnie z którym dwa lub więcej jednoczesnych procesów przetwarzania informacji, wykorzystujących ten sam kanał sensoryczny lub efektoryczny albo angażujących podobne pod względem formy reprezentacje poznawcze podlega wzajemnemu zakłócaniu, co zwiększa koszty jednoczesnego przetwarzania informacji. Interferencja zasobowa (resource interference) - zjawisko, zgodnie z którym dwa lub więcej jednoczesnych procesów przetwarzania informacji, walczących o tę samą pulę niewystarczających zasobów, zakłóca się wzajemnie, zwiększając koszty jednoczes nego przetwarzania informacji. Interioryzacja - proces przemiany jawnych zachowań w ukryte procesy poznawcze, zachodzący w trakcie rozwoju poznawczego. Intuicja (intuition) - 1. Zdolność do poznawania świata bez udziału świadomości. 2. Zdolność do formułowania sądów bez udziału rozumowania i wnioskowania. 3. Poznanie potoczne lub naiwne. 4. Poznanie alogiczne. Inwersja terminów w przesłankach - błąd logiczny, polegający na odwracaniu kierunku relacji między terminami zawartymi w przesłankach sylogizmu; inwersja typu: jeśli „Wszystkie A są B” to „Wszystkie B są A” jest nieuprawniona; błąd inwersji polega na stosowaniu równoważności w miejscu inkluzji (zawierania się) zbiorów, w przypadku, kiedy jest to nieuprawnione. Jedność działania i poznania - zasada, wedle której nie ma przepaści między zachowaniem a procesami poznawczymi, ponieważ każde poznanie służy działaniu, a każde działanie albo jest poznawaniem, albo służy poznaniu, albo też wymaga poznania. Język (language) - system kodowania znaczeń poprzez wykorzystanie skończonego zbioru symboli. Język myśli (language of thought, mentalese) - sposób trwałego reprezentowania obiektów w umyśle w postaci kodu twierdzeniowego, zwanego też propozycjonalnym, w postaci abstrakcyjnych, amodalnych twierdzeń opisowych; łączenie i przekształ canie tego typu konstrukcji umysłowych jest możliwe dzięki rachunkowi predykatów. Kategoryzacja probabilistyczna - dwuetapowy proces zaliczania obiektów do kate gorii nadrzędnych. Na etapie pierwszym następuje porównanie całościowe, obejmu jące wszystkie cechy kategoryzowanego obiektu i cechy pojęcia, do którego obiekt ten jest zaliczany, natomiast na etapie drugim - porównanie szczegółowe, dotyczące tylko cech definicyjnych nadrzędnej kategorii pojęciowej. Kategoryzowanie - 1. Proces poznawczy, polegający na łączeniu obiektów w klasy ze względu na pewne kryterium (np. posiadanie wspólnej cechy). 2. Jedna z technik mnemonicznych, polegająca na organizowaniu zapamiętywanego materiału; warun kiem jej użycia jest możliwość zastosowania typowych, a jeśli to niemożliwe, również nietypowych kategorii. Klasyczny na naturę reprezentacji pojęciowych, pogląd - stanowisko w sporze o naturę pojęć, zgodnie z którym reprezentacja pojęciowa jest syntetycznym opisem pewnej klasy desygnatów, odzwierciedleniem zbioru obiektów, uwzględniającym wszystkie istotne cechy tego zbioru. Kliniczne, badania - metoda badawcza, polegająca na obserwacji poznawczych skutków uszkodzenia określonych obszarów mózgu. Kognitywistyka (cognitive science) - interdyscyplinarna dziedzina wiedzy, zajmująca się badaniem poznania. Kohorty, model (cohort model) - koncepcja, według której słuchacz rozpoznaje słowa systematycznie zawężając listę potencjalnych „kandydatów”, czyli zmniejszając
Słownik terminów
637
kohortę możliwych jednostek leksykalnych aż do momentu, gdy nie będzie innego wyboru. Kojarzenia, prawa (laws of association) - 1. Zasady łączenia wrażeń w spostrzeżenia, np. zasada styczności wrażeń w czasie, w przestrzeni, lub kojarzenia przez podobień stwo albo wzajemny kontrast. 2. Zasady determinujące przebieg myślenia opartego na związkach skojarzeniowych, np. prawo podobieństwa, prawo kontrastu, prawo me diacji. Kompetencja językowa (linguistic competence) - według Noama Chomsky’ego, wrodzona zdolność człowieka do przyswajania języka; jest ukryta i na początku nie przejawia się w wykonaniu, czyli w umiejętności tworzenia gramatycznych wypo wiedzi. Komputerowa metafora umysłu - koncepcja podkreślająca funkcjonalne podob ieństwo niektórych struktur i funkcji umysłu do analogicznych struktur i funkcji systemu komputerowego. Komunikaty nie wprost (indirect speech) - wypowiedzi, których poprawne zro zumienie wymaga procesów wnioskowania. Konekcjonizm (connectionism) - nurt w modelowaniu procesów poznawczych, polegający na ujęciu umysłu jako sieci, która przetwarza informacje w sposób równoległy i rozproszony. Konkluzji, ewaluacja (evaluation of conclusions) - w rozumowaniu dedukcyjnym: ocena, czy wniosek logicznie wynika z przesłanek. Konkluzji, generowanie (generation of conclusions) - w rozumowaniu dedukcyjnym: formułowanie wniosku na podstawie przesłanek. Konstruktywizm - pogląd, że każdy człowiek ma indywidualną reprezentację świata, samodzielnie utworzoną na podstawie własnego doświadczenia. Kontekst - 1. Okoliczności towarzyszące przetwarzaniu informacji, w szczególności obecność dodatkowych bodźców, ich jakość i treść (kontekst zewnętrzny). 2. Wcześ niej wzbudzone struktury poznawcze, w szczególności struktury wiedzy, towa rzyszące przetwarzaniu informacji i wpływające na jego przebieg (kontekst wew nętrzny) . Kontrola interferencji - osłabianie lub redukcja efektu interferencji między konflik tami a aspektami bodźców lub reakcji. Kontrola poznawcza (cognitive control) - 1. Zdolność umysłu do samokontroli i samoorganizacji. 2. Zespół procesów poznawczych, biorących udział w samokontroli umysłu. Kontrola systemów dynamicznych (dynamie system task) - jeden z paradygmatów badania mimowolnego uczenia się, zgodnie z którym zarządzanie systemem dyna micznym wymaga ciągłych prób osiągnięcia i utrzymania określonego stanu poprzez manipulację dostępnymi czynnikami Konwergencja dwuoczna - wskazówka wizualna odnoszącą się do napięcia mięśni regulujących kształt soczewki; napięcie to jest większe w przypadku bliżej położonych obiektów. Końca języka, efekt (tip-of-the-tongue phenomenon) - stan, polegający nie niezdolności do przypomnienia sobie konkretnego słowa, mimo przekonania, że się nim dysponuje. Kooperacji, zasada (cooperative principle) - według Paula Grice’a, reguła komuni kowania się za pomocą języka, według której mówca i odbiorca przekazu wzajemnie sobie pomagają.
638
Słownik terminów
Koordynacja buforów pamięci roboczej - jedna z funkcji centralnego systemu wy konawczego, polegająca na sprawowaniu kontroli nad odsyłaniem i przywoływaniem informacji z poszczególnych podsystemów pamięciowych. Koszty przerzutności (shifting costs, switching costs) - 1. Koszty poznawcze jakie ponosi umysł w przypadku dowolnej lub wymuszonej zmiany koncentracji uwagi na nowym zadaniu lub obiekcie. 2. Koszty poznawcze wynikające z konieczności dokonania rekonfiguracji zestawu zadaniowego. Koszty rezydualne (residual costs) - „resztowe” koszty przerzutności uwagi między zadaniami, niepodlegające redukcji nawet w przypadku bardzo długiej przerwy między zadaniami i możliwości przygotowania się do nowego zadania. Kryterium czułości - kryterium metodologiczne, które nakazuje aby test mierzą cy zakres wiedzy jawnej był na tyle wyczerpujący, aby ujawnić pełny jej zakres; w przeciwnym razie, niewykrytą wiedzę jawną błędnie można uznać za wiedzę niejawną. Kryterium wyłączności - kryterium metodologiczne nakazujące, aby test mierzący zakres wiedzy umożliwiał dotarcie tylko do tej wiedzy, która jest wykorzystywana w wykonaniu danego zadania, a był odporny na wpływ innej wiedzy, np. uprzednio nabytej albo przechowywanej w postaci przekonań. Krytyczna refleksja (critical reflection) - polega na zastosowaniu sprawności umysło wych do oceny relacji między tym, jak działamy, a tym, co jest w danej kulturze cenione jako spełniające kryteria etyczne. Krytyczna refleksja polega na analizie własnego działania w świetle takich pytań, jak: „Czy to, co robię, odpowiada moim założeniom, wartościom i przekonaniom?” albo „Czyim interesom służy moja działalność?”. Krzywe pozycyjne {positional curves) - ilustrują prawdopodobieństwo prawidłowego odtworzenia bodźców z listy w zależności od ich pozycji na tej liście (np. początek lub koniec). Leksem (lexeme) - jednostka umysłowego słownika (leksykonu mentalnego), czyli konkretne słowo z odpowiadającym mu znaczeniem. Leksykalizacja (lexicalization) - w procesie wytwarzania mowy: zamiana myśli i intencji w słowa. Leksykon mentalny (mental lexicon) - inaczej: słownik umysłowy. Lemma (lemma) - według Willema Levelta, abstrakcyjna postać słowa, obejmująca jego znaczenie, funkcję syntaktyczną pełnioną w zdaniu oraz wskaźniki fonologiczne. Logogen (logogen) - dowolna werbalna reprezentacja umysłowa utworzona w ramach systemu podwójnego kodowania. Magazyn (store, register) - hipotetyczny konstrukt teoretyczny w blokowym modelu pamięci; pojemnik o względnie stałych parametrach (np. pojemności), biernie przechowujący zawarte w nim informacje. Magazyn echoiczny (echoic register) - magazyn informacji sensorycznej dla zmysłu słuchu. Magazyn ikoniczny (iconic register) - magazyn informacji sensorycznej dla zmysłu wzroku. Magazyn informacji sensorycznej (sensory store) - system służący przechowywaniu przez krótki czas po bezpośrednim zadziałaniu bodźca efektów tego działania; specyficzny dla powiązanego z nim zmysłu (wzroku, słuchu, węchu); przetrzymuje docierający bodziec w kodzie analogowym w stosunku do modalności zmysłowej. Magazyn pamięci długotrwałej (long term store, long term memory) - wywodzi się z blokowego (magazynowego) modelu pamięci; wykazuje największe zróżnicowanie rodzaju magazynowanych danych (wiedza semantyczna, umiejętności proceduralne,
Słownik terminów
639
doświadczenia osobiste) i najdłuższy czas ich przechowywania; dzięki jego za wartości możliwa jest skuteczna adaptacja jednostki do środowiska w dłuższej perspektywie czasowej. Magazyn pamięci krótkotrwałej (short term store, short term memory) - wywodzi się z blokowego (magazynowego) modelu pamięci; zawiera informacje, które docierają z magazynów sensorycznych, informacje przywołane z pamięci długotrwałej oraz efekty bieżącego przetwarzania; charakteryzuje się niewielką pojemnością i krótkim czasem przechowywania informacji. Magazyn wzrokowy (visual cache) - jeden ze sposobów funkcjonowania śzkicownilca wzrokowo-przestrzennego; mechanizm pasywnego przechowywania informacji wzro kowej i przestrzennej. Maksymy konwersacyjne - zasady porozumiewania się, które mają ułatwiać stosowanie się do ogólnej reguły, jaką jest zasada kooperacji. Mapa cechy (feature map) - struktura poznawcza odpowiedzialne za zakodowanie informacji o wystąpieniu pojedynczej cechy w ramach zbioru właściwości obiektów dostępnych w polu percepcyjnym. Mapa lokacyjna (master map of location) - struktura poznawcza odpowiedzialna za zakodowanie informacji o tym, w którym miejscu w ramach reprezentacji poznawczych zapisywane są informacje o pojedynczych cechach stymulacji obecnej w polu percepcyjnym. Maskowanie wsteczne (backward masking) - zjawisko obserwowane w badaniach nad pamięcią ikoniczną; gdy po prezentacji bodźca po upływie ok. 100 ms pojawia się kolejny bodziec, ten pierwszy ulega całkowitemu zatarciu; gdy odstęp między bodźcami jest krótszy niż 100 ms dochodzi do nakładania się bodźców na siebie. Materiału tematycznego, efekt (thematic-materials effect) - wzrost poprawności wnioskowania dedukcyjnego związany z zastąpieniem abstrakcyjnego materiału zadania treścią mającą związek z realnymi sytuacjami życiowymi. Mechanizm aktywacyjny uwagi - odpowiada za podtrzymanie umysłu w stanie pobudzenia niezbędnego do wykonania określonych czynności poznawczych. Mechanizm nawarstwiania się cech - w teorii reprezentacji wiedzy za pomocą cech, nabudowywanie cech dodatkowych, bardziej szczegółowych, na cechach pier wotnych, bardziej podstawowych w danej klasie obiektów Mechanizm orientacyjny uwagi - odpowiada za przenoszenie uwagi w polu percep cyjnym z obiektu na obiekt. Metajęzykowa, świadomość (metacognitive awareness) - zdolność do refleksji nad naturą języka, zrozumienie poznawczych i komunikacyjnych możliwości, tkwiących w systemie językowym. Metapoznanie (metacognition) - 1. Zdolność umysłu ludzkiego do poznania samego siebie. 2. Zespół procesów poznawczych, zaangażowanych w poznanie innych pro cesów lub struktur poznawczych. Metawiedza (metaknowledge) - wiedza typu „wiem, że wiem”; polega na zdawaniu sobie sprawy z wiedzy, którą jednostka dysponuje; może ujawnić się wprost, przy próbie uświadomienia sobie wiedzy lub niewiedzy w jakimś temacie, albo bez uświadomienia, przy podejmowaniu pewnych zadań a pomijaniu innych. Miejsc, metoda (method of loci) - technika mnemoniczna ułatwiająca zapamiętanie wiedzy semantycznej; polega na nałożeniu nowej wiedzy na dobrze utrwalony zapis pamięciowy, związany z lokalizacją przestrzenną charakterystycznych obiektów; z każdym z tych charakterystycznych miejsc należy skojarzyć jeden z zapamię tywanych elementów, tworząc w ten sposób pary; w odtwarzaniu wystarczy tylko
640
Słownik terminów
wyobrazić sobie owe charakterystyczne miejsca, zyskując w ten sposób dostęp do drugiego elementu pary. Mimowolne uczenie się (incidental learning) - sposób nabywania wiedzy niejawnej; odbywa się bez udziału świadomych strategii uczenia się, bez intencji nabycia wiedzy i bez polecenia z zewnątrz, często też bez zdawania sobie sprawy z tego, że nabyło się jakąś wiedzę. Dwa kryteria: brak intencji i brak świadomości skutków, nie muszą występować łącznie. Model mentalny (umysłowy) (mental model) - 1. Reprezentacja poznawcza potrzebna do identyfikacji obiektów w polu percepcyjnym; o modelach umysłowych (inaczej wzorcach porównawczych) zakłada się, że są jednostkami holistycznymi, niepodlegającymi rozbiciu na elementy składowe. 2. Nietrwała reprezentacja słownoobrazowa o dość dużym poziomie złożoności, powstająca w toku procesu myślenia lub rozumowania jako sposób na przedstawienie sobie w umyśle istoty problemu, a zwłaszcza składających się nań zależności. Model sytuacyjny (situation model) - poznawcza reprezentacja szerszego kontekstu, w którym dokonuje się analiza treści komunikatu językowego. Modele deskryptywne - opisują myślenie w jego rzeczywistej postaci ze wszystkimi systematycznymi błędami i uproszczeniami. Modele normatywne - dotyczą poprawności myślenia z punktu widzenia pewnego systemu norm, którym może być np. teoria rachunku prawdopodobieństwa. Modele preskryptywne - dotyczą poprawności myślenia z punktu widzenia zalecanych heurystyk o sprawdzonej skuteczności w rozwiązywaniu problemów. Moduł (module) - podsystem przetwarzania informacji o wąskiej specjalizacji, ściśle zależny od dziedziny i działający automatycznie. Modułowość struktury pamięci - założenie o blokowym charakterze pamięci, wedle którego przetwarzanie informacji odbywa się dzięki pracy modułów o wyspecjali zowanych funkcjach, przesyłających między sobą efekty swojego działania w ściśle określonej sekwencji; przetworzenie informacji w danym module możliwe jest dopiero po otrzymaniu kompletnych danych z modułu poprzedzającego. Monitorowanie (monitoring) - jeden z aspektów kontroli poznawczej; sprawdzanie przez procesy kontrolne sposobu przebiegu i skutków działania procesów kontrolo wanych, bez aktywnej ingerencji w ów przebieg. MOP (od: memory organization packets) - zbiór podobnych fragmentów różnych schematów, dotyczących tych samych treści, odnoszących się do pojedynczych rodzajów podobnych do siebie scen, jakie mogą wystąpić w ramach wielu schematów, i z których mogą być budowane poszczególne scenariusze nowych schematów. Mowa (speech) - 1. Używanie języka w celu przekazywania znaczeń oraz wpływania na zachowanie cudze lub własne. 2. Zdolność gatunku ludzkiego do przekazywania i odbierania komunikatów językowych za pomocą wyrażeń wokalnych lub znaków pisma. Mowa telegraficzna (télégraphie speech) - okres w przyswajaniu języka przez dziecko, polegający na tworzeniu krótkich zdań, pozbawionych poprawnego odmieniania użycia form gramatycznych. Mowa ukierunkowana na dziecko (child-directed speech) - szczególny sposób zwrac ania się do dziecka przez dorosłych; polega na modelowaniu zachowań werbalnych dziecka w następstwie wielokrotnego powtarzania krótkich, ale syntaktycznie poprawnych zdań. Mózg (brain) - organ wyspecjalizowany w sterowaniu funkcjami ciała i w prze twarzaniu informacji. Stanowi fizjologiczne podłoże procesów poznawczych.
.j j j j ] j \ \ ] j j
Słownik terminów
641
Myślenie (thinking) - proces łączenia elementów poznawczej reprezentacji świata (obrazów, pojęć lub sądów) w dłuższe ciągi; tak utworzony ciąg zastępuje realne, obserwowalne zachowanie w rzeczywistym świecie fizycznym lub społecznym, uwal niając nas od konieczności ponoszenia natychmiastowych skutków własnych działań. Myślenie autystyczne (autistic thinking) - rodzaj myślenia, które nie jest nastawione na osiągnięcie konkretnego efektu; charakterystyczne dla stanu relaksacji; polega na tworzeniu luźnych skojarzeń i oderwanych od rzeczywistości spekulacji; mimo braku ukierunkowania na cel, pełni ważną funkcję w życiu każdego człowieka - pozwala fantazjować i zastępczo zaspokajać potrzeby, które chwilowo nie są możliwe do za spokojenia. Myślenie krytyczne (critical thinking) - rodzaj myślenia realistycznego, ukierunko wanego na specyficzny cel, jakim jest ewaluacja; zawiera w sobie elementy myślenia reproduktywnego i produktywnego; celem myślenia krytycznego jest rzetelna i realistyczna ocena istotnych aspektów aktywności intelektualnej człowieka. Myślenie odtwórcze (noncreative thinking) - każdy przypadek myślenia, którego wynik nie uzyskał uznania jako nowy i jednocześnie wartościowy dla społeczności; z faktu, że myślenie nie jest twórcze, nie wynika, że brak mu złożoności, wyrafi nowania lub innych wartości. Myślenie postformalne (post-formal thinking) - inaczej: dialektyczne; myślenie oparte na zasadach dialektyki, sprowadzające się do formułowania w myśleniu tez i antytez, oraz ich późniejszego syntetyzowania, które może być podstawą sformu łowania kolejnej tezy, a dla niej stosownej antytezy itd. Myślenie produktywne (productive thinking) - rodzaj myślenia realistycznego, ukierunkowanego na rozwiązanie problemu lub osiągnięcie innego celu; efektem myślenia produktywnego jest wytworzenie nowych treści intelektualnych; treść i wynik myślenia produktywnego jest nowy z punktu widzenia dotychczasowej wiedzy podmiotu myślącego, ale niekoniecznie z punktu widzenia innych ludzi. Myślenie realistyczne (realistic thinking) - rodzaj myślenia ukierunkowanego, w któ rym uwzględnia się ograniczenia nakładane przez rzeczywistość; zazwyczaj jego celem jest rozwiązanie problemu, ale może nim być również zdefiniowanie problemu, ocena wypracowanych rozwiązań, udowodnienie twierdzenia, sprawdzenie popraw ności wniosku sylogistycznego. Myślenie reproduktywne (reproductive thinking) - rodzaj myślenia realistycznego, polegający na odtwarzaniu przeszłego doświadczenia. Myślenie twórcze (
642
Słownik terminów
detekcję określonego typu sygnałów; odpow iednik centralnego systemu wykona w czego w teorii Baddeleya. Nadzór albo kontrola (:supervision, control) - jedna z funkcji centralnego systemu w ykonaw czego; dotyczy bieżącego przetwarzania informacji i polega na planowaniu oraz nadzorow aniu wykonania złożonych zadań poznawczych; obejmuje również aktualizację zaw artości buforów pam ięciowych. Naiwna koncepcja percepcji - pogląd w sporze o naturę percepcji, zgodnie z którym trwałe odzw ierciedlenia obiektów mają zaw sze formę odzm ysłową i ściśle odpowia dają rzekom o prawdziwym cechom obiektów . Nastawienia, efekt (set effect) albo efekt mechanizacji myślenia (mechanization of thought) - schem atyczne podejście do problemu, zgodne z wcześniej wytworzonym sposobem jego reprezentacji lub utrwaloną procedurą poszukiwania rozwiązania; skutki transferu uprzednich dośw iadczeń są negatywne, gdy struktura głęboka proble m ów jest różna. Nastawienie percepcyjne (perceptual set) - w stępne przygotowanie umysłu do odbio ru określonej informacji w procesie spostrzegania; m oże się dokonać poprzez jawną instrukcję lub uprzednią ekspozycję informacji pod jakimś względem podobnych. Nasycenia, efekt (saturation effect) - zjawisko, zgodnie z którym w zbudzenie impulsu nerw ow ego przez kom órkę w łoskow ą ucha jest niem ożliw e, gdy intensywność dźw ięku jest dla niej zbyt duża. Neuronauka poznawcza (cognitive neuroscience) - dyscyplina wyspecjalizowana w badaniu procesów m ózgow ych biorących udział w regulacji czynności pozna w czych. Niepowtarzalności produkcji, zasada - zasada blokująca ponow ne stosowanie procedur i reguł, szczególnie tych, które utraciły skuteczność; chroni przed perseweracją, czyli uporczywym stosow aniem jakiejś procedury, która nie przynosi pożąda nego skutku. Nieuświadomionej podpowiedzi, efekt - zjawisko ułatwiającego wpływu wykonania zadania poprzedzającego na zadanie następujące w kolejności, gdy umysł nie jest św iadom y zw iązku pom iędzy dwom a kolejnymi czynnościam i poznawczymi. Obraz umysłowy (image) - jedna z form nietrwałej, poznawczej reprezentacji obiek tów w um yśle, charakteryzująca się analogowym i w łaściw ościam i i ścisłą odpowiedn iością w stosunku do odzwierciedlanego obiektu. Obrazowanie pracy mózgu (neuroimaging) - m etoda badawcza, polegająca na obserwacji zm ian aktyw ności m etabolicznej różnych obszarów mózgu; na podstawie w zorców aktyw ności m etabolicznej w nioskuje się o aktywności poznawczej mózgu. Obrazów interaktywnych, metoda - technika m nem oniczna, polegająca na powiąza niu w yobrażeń zapam iętywanych słów w taki sposób, aby powstała jakaś historia naw et nierealna, ale w ew nętrznie spójna. Obronność percepcyjna (perceptual defense) - selektyw ność spostrzegania związana z nieśw iadom ym blokow aniem części kategorii pojęciowych m ożliwych do wyko rzystania w interpretacji danych zm ysłowych; utrudnia spostrzeżenie treści nieakcep tow anych lub zagrażających. Obserwacja - podstaw ow a m etoda badawcza w psychologii, polegająca na obser w ow aniu i interpretowaniu zachowania. „Oddolne” przetwarzanie informacji (bottom-up processing) - przetwarzanie od stym ulacji sensorycznej do struktur wiedzy. „Odgórne” przetwarzanie informacji (top-down processing) - przetwarzanie od struktur w iedzy do stymulacji sensorycznej.
Słownik terminów
643
Odejmowania, metoda (method of subtraction) - weryfikowanie konkurencyjnych modeli procesu poznaw czego dzięki prezentacji zadań poznaw czych o zróżnicow anym poziom ie złożoności i porównywaniu czasu, niezbędnego do ich wykonania. Odpamiętywanie - czynność, polegająca na wykorzystaniu w cześniej zapam iętanych informacji; m oże się dokonać poprzez przypom inanie, rozpoznaw anie, powtórne uczenie się lub jeden z testów pam ięci niejawnej; termin używany w odniesieniu do w szelkich rodzajów pamięci, jawnej i niejawnej. Odporność na dystrakcję (resisatance to distraction) - zdolność do odrzucania infor macji irrelewantnych, czyli nieistotnych z punktu w idzenia aktualnie przetwarzanych danych. Odporność na interferencję proaktywną (résistance to proactive interférence) zdolność do aktywnego i w ysiłkow ego blokow ania trwałych reprezentacji pozna wczych w celu uniem ożliw ienia ich przetwarzania. Odruch orientacyjny (orienting reflex) - reakcja organizmu na wydarzenie nagłe i nieoczekiw ane. Odświeżanie (updating) - jedna z funkcji zarządczych: aktualizow anie zawartości pamięci roboczej. Odtwarzanie (retrieval) - w ydobycie informacji z pam ięci jawnej, np. poprzez przypominanie lub rozpoznawanie. Odtwarzania ukierunkowanego, metoda (cued recall) - klasyczna procedura służąca do badania pamięci; dotyczy materiału, jakim są pary bodźców; ukierunkow anie od twarzania polega na prezentacji pierwszego elem entu pary, który stanow i w skazów kę wydobycia drugiego elem entu pary. Odtwarzania w kolejności, metoda (serial recall) - klasyczna procedura służąca do badania pamięci; odtwarzanie słów z przedstawionej w cześniej listy w porządku odpowiadającym kolejności ekspozycji. Odwzorowania struktury, teoria (structure mapping theory) - dotyczy zw iązku analogii; żeby sensow nie posługiw ać się analogią nie wystarczy proste stwierdzenie, że dwa zjawiska są do siebie podobne pod w zględem pewnych cech, niezbędne jest ustalenie czy m iędzy dwom a dziedzinam i w ystępuje odpow iedniość relacji ich wewnętrznych struktur. Ognisko uwagi (focus of attention) - obszar najwyższej aktywacji inform acji w pamięci roboczej, jednoznaczny z udostępnieniem śladu pam ięciow ego św iado mości. Operatory (operators) - jeden z wym iarów problemu; środki lub reguły, których m ożna użyć do przekształcania stanu początkow ego i w szystkich stanów pośrednich w drodze do osiągnięcia celu. Oportunistyczna asymilacja - autom atyczny, nieśw iadom y odbiór z pola percepcji przypadkowych informacji wspom agających rozw iązanie problemu; zachodzi zwykle w fazie inkubacji. Organizacja wiedzy eksperckiej - hierarchiczne uporządkowanie w iedzy na w ielu poziom ach: od elem entarnych składników , aż po w yab strah ow an e struktury w yższego rzędu, dające elastyczny i szybki dostęp do zasobów wiedzy. Oswajanie problemu (familiarization) - grupowanie elem entów składowych prob lemu w coraz bardziej pojemne i abstrakcyjne struktury nadrzędne; zachodzi w e w czesnych fazach rozwiązywania problemu. Pamięć (memory) - 1. Z dolność do przechowywania informacji i późniejszego jej wykorzystania. 2. Z espół procesów poznaw czych, zaangażow anych w nabywanie, przechowywanie i późniejsze odpam iętanie informacji.
644
Słownik terminów
Pamięć autobiograficzna (autobiographic memory) - pamięć wydarzeń, dotyczących indywidualnej historii życia danej jednostki; przechowywany material ma odniesienie do „Ja”, jako obiektu dośw iadczenia; m oże być uznana za część osobowości, zw iązanej z poczuciem tożsam ości i trw ałością jej cech lub struktur. Pamięć deklaratywna (declarative memory) - pam ięć faktów, łatwa do werbalizacji; obejmuje w iedzę deklaratywną. Pamięć echoiczna (echoic memory) - jeden z dw óch głównych rejestrów pamięci sensorycznej, zw iązany ze zm ysłem słuchu; ma kluczow e znaczenie dla rozpoznawa nia m owy, gdyż przechow yw ane w niej fonem y m ogą się z sobą płynnie łączyć, dając m ożliw ość analizy znaczenia. Pamięć epizodyczna (episodic memory) - pam ięć zdarzeń, bogata w zapisy kontekstualne, dotyczące m iejsca, czasu i sposobu pozyskania wiedzy. Pamięć fałszywych wspomnień (false recollections) - paradygmat badawczy, polegający na indukow anym przez badacza w łączaniu fałszywych informacji do prawdziwych zapisów pam ięciow ych. Pamięć ikoniczna (iconic memory) - jeden z dwóch głównych rejestrów pamięci sensorycznej, zw iązany ze zm ysłem wzroku; w iernie koduje w szystkie właściwości fizyczne stymulacji, dzięki czem u dalsza obróbka danych m oże odbywać się ze w zględu na dow olne kryteria. Pamięć jawna (explicit memory) - pam ięć faktów i zdarzeń, z których jednostka zda je sobie sprawę; pamięć, do której mamy świadom y dostęp, m ożem y ją werbalizo wać. Pamięć niedeklaratywna (nondeclarative memory) - w szelkie rodzaje pamięci, które nie mają formy deklaratywnej: pam ięć proceduralna, pam ięć efektów warunkowania, pam ięć ujawniająca się w wyniku poprzedzania, habituacja i sensytyzacja reakcji. Pamięć niejawna (implicit memory) - inaczej: ukryta albo utajona; pamięć zwierająca treści, z których istnienia podm iot nie zdaje sobie sprawy; treści te są zazwyczaj nabywane poprzez m im ow olne uczenie się. Pamięć operacyjna (working memory) - inaczej: pam ięć robocza. Pamięć prospektywna (prospective memory) - pam ięć działań, które mają być dopiero podjęte; zapisy pam ięciow e planowanych działań, poczynione w przeszłości, których treścią jest przyszłość; dotyczy działań intencjonalnych. Pamięć przemijająca - przechowuje informacje w sposób nietrwały, czyli w stosun kow o krótkim czasie. Pamięć robocza (working memory) - inaczej: operacyjna. System odpowiedzialny za krótkotrwałe przechow yw anie informacji i kontrolę przebiegu jej przetwarzania, spraw ow aną dzięki uw agow em u m echanizm ow i centralnego systemu wykonawczego. Pamięć semantyczna (semantic memory) - „um ysłowy słow nik”; zawiera zorganizo w aną w ied zę o sym bolach werbalnych, ich znaczeniu i odniesieniach, o relacjach m iędzy nimi oraz o regułach, formułach i algorytmach manipulacji tymi symbolami, pojęciam i i relacjami (zob. w iedza sem antyczna). Pamięć trwała - system pam ięciow y odpowiedzialny za przechowywanie informacji bez wyraźnych ograniczeń czasowych; gromadzi w iedzę semantyczną, proceduralną i epizodyczną. Paradygmat (paradigm) - 1. W edług Thom asa Kuhna: ogólny w zorzec uprawiania nauki, sw oisty ze w zględu na podstaw ow e pojęcia, założenia metateoretyczne, m etodologię i rodzaj staw ianych pytań badawczych. 2. Ustalony w zorzec procedury eksperym entalnej, wykorzystyw any w badaniach psychologicznych nad wyodrębnio nym procesem lub efektem.
Słownik terminów
645
Paradoks frekwencji słów (zvord frequency paradox) - obecność w zapam iętywanym materiale słów o wysokiej częstotliw ości w ystępow ania (frekwencji) w języku powoduje wzrost poprawności przypominania, a jednocześnie spadek poprawności rozpoznawania. Paralaksa ruchowa (motion paralax) - w skazów ka w izualna ułatwiająca szacow anie absolutnego dystansu obiektów w polu wzrokow ym na podstaw ie oceny przebytego przez obiekt dystansu. Pasywne przechowywanie ( rétention ) - jed en z m ech a n iz m ó w zw ią za n y ch z przechowywaniem informacji w pętli fonologicznej, realizowany dzięki funkcjom magazynu fonologicznego. Percepcja (perception) - proces aktywnej interpretacji danych zm ysłow ych na podstawie danych um ysłowych, czyli trwałych, głębokich reprezentacji poznaw czych. Percepcja głębi (depth perception) - m ożliw ość spostrzegania dystansu absolutnego, jaki dzieli obserwatora od obiektu, oraz dystansu w zględnego, jaki dzieli poszczególne obiekty w polu wzrokowym od siebie. Percepcja wklęsłości - spostrzeganie względnych różnic położenia elem entów obiektu w stosunku do płaszczyzny poziomej; proces niezbędny do wyboru odpowiedniej liczby i rodzaju geom etrycznych kom ponentów strukturalnych, niezbędnych do odzwierciedlenia obiektu z wym aganą dokładnością. Percepcyjna, gotowość (perceptual readiness) - selektyw ność postrzegania zw iązana z nieśw iadom ym ułatw ianiem interpretacji danych zm ysłow ych w zakresie wybranych kategorii pojęciowych. Percepcyjna, stałość (perceptual constancy) - inaczej: stałość spostrzegania. Percepcyjny, niezmiennik (perceptual invariant) - w łaściw ość pola percepcyjnego, która nie zm ienia się wraz ze zm ianą punktu obserwacji. Pętla fonologiczna (phonological loop) - jeden z trzech buforów pam ięci roboczej podlegający centralnemu system ow i wykonawczem u; odpowiada za krótkotrwałe przechowywanie informacji w kodzie fonologicznym . Pierwotna reprezentacja 2D - odzw ierciedlenie pola w zrokow ego jako dwuwym iaro w ego obrazu, pozbaw ione percepcji głębi, ale uwzględniające takie w łaściw ości reprezentowanych obiektów jak: krawędzie, kontury, linie i pow ierzchnie barwne obiektów. Pierwotna reprezentacja surowa - mapa św ietlnych punktów (pikseli), obrazująca natężenie światła zarejestrowanego przez fotoreceptory. Pierwotna reprezentacja pełna - reprezentacja kształtów obiektów w polu w zroko wym tworzona na podstaw ie informacji dotyczących natężenia światła, zawartych w pierwotnej reprezentacji surowej. Pierwszeństwa, efekt (primacy effect) - w yższe praw dopodobieństw o odtw orzenia bodźców z początku prezentowanej listy, np. słów; zjawisko w yjaśniane transferem informacji do pamięci długotrwałej. Płynnego ruchu pozornego, efekt (phi phenomenon) - inaczej: zjawisko fi; zjawisko polegające na tym, że szybko w yśw ietlane po sobie statyczne obrazy w yw ołują złudzenie ruchu, np. w filmie rysunkowym. Poczucie wiedzy (feeling of knowing, FOK) - subiektywne przekonanie o tym, że dysponuje się znajom ością czegoś, np. zna się znaczenie jakiegoś terminu lub pam ięta się czyjeś nazwisko; zwykle w ystępuje w postaci szczątkow ej, np. pam iętam y tylko niektóre litery, tworzące czyjeś nazwisko; poczucie w iedzy m oże być błędne, ale nawet wtedy zdarza się, że skutecznie w spom aga procesy odpamiętania.
646
Słownik terminów
Podobieństwa fonologicznego, efekt (phonological similarity effect) - słowa o podob nym brzm ieniu są trudniejsze do wydobycia z pam ięci niż słowa o różnym brzmieniu. Podobieństwo rodzinne (family resemblances) - w łaściw ość pozwalająca wyznaczyć prototyp reprezentacji pojęciowej; jest nim ten spośród egzemplarzy, który wykazuje najw iększe podobieństw o do w szystkich innych desygnatów danej kategorii i naj m niejsze podobieństw o do desygnatów pozostałych kategorii. Podobieństwo syntaktyczne - tendencja w rozum owaniu dedukcyjnym, polegająca na uw zględnieniu syntaktyki przesłanek w procesie form ułowania wniosku; jeżeli obie przesłanki w sylogizm ie opatrzone są takim samym kwantyfikatorem to ich składnia, tw orząc określoną atm osferę, skłania nas do użycia podobnej składni we w niosku. Podwójna dysocjacja (double dissociation) - zjaw isko będące fizjologicznym dow odem odrębności m agazynów pam ięci krótko- i długotrwałej; pacjenci wykonu jący dwa zadania angażujące różne m echanizm y poznaw cze, w zależności od rodzaju uszkodzenia w ykonują jedno z tych zadań gorzej niż osoby zdrowe, podczas gdy drugie pozostaje na niezm ienionym poziom ie wykonania. Podzielność uwagi - m ożliw ość koncentracji uwagi na dwóch lub większej liczbie źródeł informacji, w konsekw encji - zdolność do jednoczesnego wykonywania kilku czynności. Pojęcia, rdzeń (conceptual core) - zbiór cech istotnych pojęcia probabilistycznego. Pojęcie (concept) - trwała reprezentacja poznaw cza zbioru obiektów, zarówno kategorii naturalnych, sztucznych jak i hipotetycznych. Pojęcie dysjunktywne (disjunctive) - reprezentacja pojęciowa posiadająca w swej definicji w łaściw ości w ykluczające się. Pojęcie jawne (explicit concept) - reprezentacja pojęciow a nabywana metodą testow ania hipotez dotyczących tego, czy wyabstrahowane wcześniej cechy dostęp nych egzem plarzy kategorii są cecham i istotnym i tej kategorii. Pojęcie konkretne (concrete) - reprezentacja pojęciowa, w przypadku której możliwe jest podanie kom pletnej listy desygnatów, lub też w przypadku której podejrzewa się, że taka kom pletna lista istnieje. Pojęcie matrycowe (classical) - reprezentacja pojęciowa, stanowiąca odzwierciedle nie skończonej liczby cech istotnych, w spólnych w szystkim reprezentowanym obiektom w takim samym stopniu. Pojęcie naturalne (natural kind) - reprezentacja pojęciowa, stanowiąca odzwiercied lenie skończonej liczby cech, które w różnym stopniu przysługują poszczególnym desy gnatom przynależnym do kategorii pojęciowej. Pojęcie niejawne (implicit concept) - reprezentacja pojęciowa nabywana metodą percepcyjnej bądź wyobrażeniowej abstrakcji cech egzemplarzy typowych dla ka tegorii. Pojęcie polimorficzne (polymorphic concept) - reprezentacja pojęciowa definiowana w yłączn ie przez pew ną liczbę cech charakterystycznych. Pojęcie probabilistyczne (probabilistic concept) - reprezentacja pojęciowa definio w ana przez listę cech przysługujących desy gnatom tej reprezentacji z pewnym praw dopodobieństw em . Połączenia - odpowiadają relacjom m iędzy węzłam i w sieciowej strukturze wiedzy sem antycznej. Poprzedzanie (priming) - zjaw isko modyfikacji reakcji na bodziec w wyniku uprzed niego działania innego bodźca (prymy), w jakiś sposób powiązanego z bodźcem docelow ym .
Słownik terminów
647
Poprzedzanie afektywne (affective priming) - zjawisko modyfikacji reakcji na bodziec w wyniku uprzedniego działania innego bodźca (prymy), który ma pozytyw ną lub negatywną walencję emocjonalną. Poprzedzanie negatywne (négative priming) - utrudnienie w przetwarzaniu bodźca docelow ego w wyniku uprzedniego działania bodźca poprzedzającego (prymy); utrudnienie m oże się przejawiać w w ydłużeniu czasu reakcji lub w zw iększeniu prawdopodobieństwa błędu. Poprzedzanie percepcyjne (perceptual priming) - w badaniach nad czytaniem: zjawisko łatwiejszej identyfikacji wyrazu, jeśli był poprzedzony ekspozycją innego wyrazu (lub zbitki liter), zawierającego częściow o te same litery, co w łaściw y wyraz. Poprzedzanie peryferyczne (périphérie priming) - rodzaj poprzedzania, w którym bodziec poprzedzający (pryma) jest trudny do zauw ażenia ze w zględu na swoją lokalizację w dużej odległości od wym aganego dla bodźca docelow ego punktu fiksacji wzroku. Poprzedzanie podprogowe (subliminal priming) - rodzaj poprzedzania, w którym bodziec poprzedzający (pryma) jest prezentow any w sposób uniem ożliw iający zdawanie sobie sprawy z jego istnienia. M ożna to osiągnąć skracając czas ekspozycji prymy lub degradując ją. Poprzedzanie pozytywne (positive priming) - ułatw ienie w przetwarzaniu bodźca docelow ego w wyniku uprzedniego działania bodźca poprzedzającego (prymy). U łatwienie m oże się przejawiać w skróceniu czasu reakcji lub w zm niejszeniu prawdopodobieństwa błędu. Poprzedzanie semantyczne (semantic priming) - zjawisko modyfikacji reakcji na bodziec w w yniku uprzedniego działania in n ego bodźca (prymy), który jest sem antycznie powiązany z bodźcem docelow ym (np. jest jego synonim em lub nazw ą kategorii nadrzędnej). Poruszania się wstecz, metoda - m etoda rozwiązywania problemów; odw rócenie kierunku rozwiązywania tak, aby punktem wyjścia stał się stan docelow y, a następnie poruszanie się w stecz, aż do osiągnięcia stanu początkowego; pozwala niekiedy na redukcję liczby potencjalnych operatorów. Postaci, zasady (Gestalt principles) - zasady organizacji percepcji, w yróżnione przez Maksa Wertheimera; obejmują zasadę bliskości, podobieństw a, kontynuacji i pregnancji. Postaciowa koncepcja percepcji (Gestalt theory of perception) - pogląd w sporze o naturę percepcji, zgodnie z którym pierwotne są spostrzeżenia, zaś wrażenia są wtórne, gdyż wynikają z analizy tego, co tworzy postaci lub „dobrą figurę”. Powtarzanie podtrzymujące (maintenance rehearsal) - m echanizm opisany w teorii poziom ów przetwarzania; powtarzanie operacji, które zostały uprzednio w ykonane na określonym materiale, dzięki czem u informacja jest aktywnie utrzymywana na danym poziom ie. Powtarzanie pogłębiające (elaborative rehearsal) - m echanizm opisany w teorii po ziom ów przetwarzania; zastosow anie nowych, najczęściej sem antycznych, operacji w stosunku do materiału pam ięciow ego, prowadzących do jego głębszego przetw o rzenia. Poziomów przetwarzania, koncepcja (levels of processing) - 1. Pogląd, że ta sama informacja m oże być poddana obróbce z różną intensyw nością i starannością na w ielu różnych piętrach przetwarzania danych. 2. Procesualny m odel funkcjonow ania pamięci, w którym pamięć jest system em jednorodnym (nie ma podziału na magazyny pam ięciowe); trwałość zapisów pam ięciow ych jest skutkiem głębokości jej przetwo-
648
Słownik terminów
rżenia; ślady pam ięciow e są zapisem operacji poznawczych, składających się na proces percepcji stymulacji a proces odpamiętania jest próbą odtworzenia owej sytuacji percepcyjnej. Poziomy języka - sposób funkcjonow ania języka i sposób jego opisu, zależny od przyjętej perspektywy. W yróżnia się poziom fonologiczny, syntaktyczny, semantyczny i pragmatyczny. Późnego domknięcia, zasada - reguła, że ustalenie granicy, poza którą zaczyna się now a fraza zdaniowa, zaczyna się najpóźniej, jak to m ożliwe. Prawo małych liczb - kierow anie się przez ludzi fałszywym przekonaniem, że reguła sprawdzająca się przy małych liczebnościach będzie działać również przy dużych liczebnościach. Prioreceptor - detektor cechy ruchu. Probabilistyczny na naturę reprezentacji pojęciowych, pogląd - stanowisko w sporze o naturę pojęć, zgodnie z którym reprezentacja pojęciowa stanowi zbiór wszystkich cech egzemplarzy, będących jej desygnatami; cechy te różnią się pod względem p ow szech n ości w ystępow ania w śród desygnatów - w konsekwencji każdy egzemplarz pojęcia posiada te w łaściw ości z pewnym tylko prawdopodobieństwem . Problem (problem) - rozbieżność m iędzy aktualnym stanem rzeczy a wyznaczonym bądź narzuconym celem (stanem pożądanym ), której podmiot nie m oże usunąć rutynowo. Problem bogaty semantycznie (semantically rich) - charakteryzuje się strukturą, która jest dobrze znana, posiadam y też pew ien zasób dośw iadczenia w rozwiązy w aniu takiego problemu; sieć sem antyczna dotycząca takiego problemu jest rozbu dowana. Problem dobrze określony (well-defined) - zawiera w szystkie informacje potrzeb ne do jego rozw iązania (opis i kryteria osiągnięcia celu, dane początkowe, opera tory). Problem dywergencyjny (rozbieżny, divergent) - dopuszcza w iele rozwiązań, z których każde m oże być poprawne; rozwiązanie problemu angażuje procesy myśle nia rozbieżnego podążającego w w ielu różnych kierunkach. Problem konwergencyjny (zbieżny, convergent) - posiada jednoznaczną odpowiedź; rozw iązanie go wymaga m yślenia zbieżnego, które bez względu na przyjętą strategię doprowadzi zaw sze do tego sam ego rezultatu końcow ego. Problem ogólny (domain-general) - niezależny od jakiejkolwiek specyficznej dzie dziny w iedzy, jego rozw iązanie wymaga zastosow ania ogólnych zasad, np. logiki czy matematyki. Problem otwarty - charakteryzuje się niew ielką ilością danych początkowych, niejasnym celem i słabo zdefiniowanym i kryteriami jego osiągnięcia; m oże mieć liczne i różnorodne rozwiązania; jest problemem źle określonym i dywergencyjnym. Problem specyficzny dla dziedziny (domain-specific) - wymaga specyficznej bądź eksperckiej w iedzy z określonej dziedziny, pozwalającej korzystać ze specyficznych strategii rozwiązyw ania. Problem transformacyjny (transformation) - posiada jasno zdefiniowany stan począt kowy, cel oraz operatory ze w szystkim i restrykcjami, a rozwiązanie polega na od pow iednim zastosow aniu reguł transformacji stanu początkowego w stan docelowy. Problem ubogi semantycznie (semantically lean/poor) - nie mamy uprzedniego dośw iadczenia w jego rozw iązywaniu (nie m ożem y dokonać transferu naszego dośw iadczenia do tej sytuacji), jego struktura jest dla nas nowa; sieć semantyczna zw iązana z takim problemem jest uboga.
Słownik terminów
649
Problem wymagający porządkowania materiału (arrangement) - polega na organizacji danych obiektów w edług ścisłych, z góry określonych reguł i posiada zazwyczaj tylko jedno poprawne rozw iązanie (np. anagramy); wym aga płynności w wytwarzaniu różnych m ożliw ości, giętkości w generowaniu i selekcji rozwiązań cząstkow ych oraz sprawnego w yszukiw ania pojęć w pam ięci trwałej. Problem zamknięty - zawiera pełną porcję informacji z danymi potrzebnymi do osiągnięcia celu, w związku z tym polega na wyborze jednego z m ożliw ych alterna tywnych rozwiązań; jest problemem dobrze określonym i konwergencyjnym . Problem źle określony (ill-defined) - nie posiada jasno sprecyzow anego celu ani kryteriów jego osiągnięcia, instrukcja nie zawiera zasad dokonyw ania przekształceń i dopuszczalnej w ielkości zaangażowania środków dla realizacji zadania. Problemy izomorficzne (isomorphic) - charakteryzują się identyczną strukturą głęboką, choć różnią się treścią, czyli strukturą pow ierzchniow ą. Problemy wymagające indukcji (inducting) albo problemy o strukturze indukcyjnej zachowują niezm ienne relacje między poszczególnym i elem entam i składowym i a ich rozwiązaniem jest odkrycie i zastosow anie tych relacji na podstaw ie skończonej liczby przedstawionych przykładów (np. eksploracja serii lub uzupełnianie serii oraz transfer przez analogię). Procedura - forma zapisu w iedzy proceduralnej, składająca się z warunku, w yzna czającego zbiór w łaściw ości, które m uszą być spełnione, aby uruchom ić pew ną czynność poznaw czą albo m otoryczną, oraz z samej czynności. Procedura identyfikacyjna - składnik reprezentacji pojęciow ej um ożliw iający poprawne kategoryzowanie desygnatów jako przedstawicieli danej kategorii nawet bez wiedzy dotyczącej definicji (istoty) pojęcia. Procedura odtwarzania częściowego (partial-report procedure) - paradygmat badania pamięci sensorycznej; polega na odtwarzaniu fragmentu materiału bodźcow ego, wskazanego już po zakończeniu ekspozycji stymulacji. Proceduralizacja - nabywanie w iedzy proceduralnej w procesie przekształcania jawnej w iedzy deklaratywnej w niejaw ne programy działania. Proces asocjacyjny - proces w system ie podw ójnego kodowania, odpowiadający za łączenie się poszczególnych reprezentacji w skojarzone ze sobą grupy; w system ie werbalnym układ reprezentacji poznaw czych jest hierarchiczny, podczas gdy w syste mie niewerbalnym porządek ten jest liniowy. Proces kategoryzacji - proces red uk ow an ia ró żn o ro d n o ści w ram ach danej reprezentacji pojęciowej poprzez łączenie obiektów w grupy charakteryzujące się zestaw em w spólnych w łaściw ości. Proces referencjalny - proces w system ie podw ójnego kodowania, odpowiadający za w zbudzenie reprezentacji poznaw czych zapisanych w innym kodzie i odpowiadają cych znaczeniow o tym, które zostały w zbudzone w cześniej. Proces reprezentacyjny - proces w system ie podwójnego kodowania, odpowiadający za przyporządkowanie poszczególnych obiektów , spostrzeganych w różnych modalnościach zm ysłowych, do jednego z pięciu podsystem ów niewerbalnych lub do jednego z trzech podsystem ów werbalnych. Procesy jawne (explicit) - procesy kontrolow ane, dostępne świadom ości; wyróżnia je m ożliw ość bieżącej modyfikacji, niew ielka w ydajność i relatywnie w olny prze bieg. Procesy metapoznawcze (metacognitive processes) - operacje poznaw cze odpow ie dzialne za planowanie czynności, nadzór i kontrolę nad ich w ykonaniem , a także za analizę informacji zwrotnych i zw iązane z tym procesy uczenia się.
650
Słownik terminów
Procesy zawoalowane (veiled processes) - procesy kontrolow ane niedostępne świa dom ości; w yróżnia je relatywnie szybki przebieg i niew ielkie m ożliw ości w zakresie ich modyfikacji. Produkcja (production) - inaczej: reguła; jednostka w iedzy proceduralnej. Prototyp (prototype) - najbardziej typowy egzemplarz reprezentacji pojęciowej. Prototypowy na naturę reprezentacji pojęciowych, pogląd - stanowisko w sporze o naturę pojęć, zgodnie z którym reprezentacja pojęciow a jest odzwierciedlana w um yśle przez jej prototyp, w ykorzystywany jako punkt odniesienia w procesie kategoryzacji now ych egzemplarzy. Prozopagnozja {prosopagnosia) - zaburzenie percepcji polegające na braku zdolności do rozpoznaw ania twarzy innych ludzi, a naw et czasami swojej własnej. Pryma (prime) - bodziec eksponow any przed bodźcem właściw ym (docelowym), wpływający na czas lub popraw ność jego przetwarzania. Prymatu całości nad częścią, zasada - zasada psychologii postaci, według której całość jest czym ś w ięcej, niż prostą sum ą części; pierwotnie dotyczyła procesów spostrze gania, później stosow ana w odniesieniu do psychiki w ogóle. Przechodzenia przez krawędź, efekt - zjawisko, zgodnie z którym światło odbite od dw óch rożnych pow ierzchni różni się natężeniem iluminacji; wyodrębnienie krawędzi dokonuje się przez porów nanie intensyw ności iluminacji światła po obu jej stronach. Przechowywanie (storage) - czynność pam ięciowa, która polega na przeciwdziałaniu zanikow i zapamiętanej informacji lub utracie dostępu do niej; w trakcie przechowy w ania zapisy pam ięciow e m ogą być rekodowane, co prowadzi do zmian w zakresie ich treści albo sposobu uporządkowania. Przedłużona koncentracja uwagi (prolonged concentration lub continuous perfor mance) - proces um ożliw iający m onitorow anie otoczenia przez dłuższy czas w poszu kiwaniu bodźców określonego typu (sygnałów). Przeduwagowa faza procesu selekcji (preattentional stage of selection) - w czesna faza selekcji informacji, w której dokonuje się przetwarzanie bodźców ze w zględu na cechy priorytetowe; w fazie tej następuje segregacja (podział) pola w zrokow ego zgodnie z analizow anym i cecham i, np. na część ruchom ą i statyczną. Przejęzyczenia (spoonerisms) - charakterystyczne błędy wypowiedzi, polegające np. na zam ianie głosek lub sylab lub na ich antycypowaniu. Przekierowanie uwagi (diversion of attention) - zmiana sposobu alokacji zasobów uwagi, przerzucenie jej na inne zadanie; w pam ięci roboczej np. skierowanie uwagi na przetwarzanie informacji, kosztem przechowywania jakiegoś materiału. Przerzutność uwagi (shifting of attention, switching between tasks) - zdolność uwagi do przełączania się m iędzy dwom a zadaniami, obsługiwanym i przez różne procesy przetwarzania informacji. Przestrzeń problemu (problem space) - hipotetyczny obszar, w którym dokonują się przeobrażenia stanów wiedzy; zawiera reprezentację stanu początkowego, celu, dopuszczalnych reguł przekształcania stanów w iedzy i restrykcji w obec nich, a także w szystkie efekty przetwarzania informacji (np. efekty kolejnych przeobrażeń, cele pośrednie). Przestrzeń semantyczna pojęcia - struktura przestrzenna reprezentacji pojęciowej, definiow ana przez kilka podstaw ow ych wymiarów, będących cechami definicyjnymi pojęcia. Przestrzeń stanów (state space) - hipotetyczny obszar w szystkich potencjalnych sta n ów w iedzy, jakie mogą pojawić się w przestrzeni problemu, wynikające z prze kształceń zgodnych z regułami.
Słownik terminów
651
Przeszkody (obstacles) - składow e problemu napotykane w procesie poszukiw ania rozwiązania; mogą nimi być ograniczenia nakładane na operatory, w wyniku czego niektóre z przekształceń stają się niedozw olone. Przeszukiwanie pola percepcyjnego (perceptual search) - proces odnajdywania w polu percepcyjnym bodźców (sygnałów ), charakteryzujących się w skazanym i przez zasadę selekcji w łaściw ościam i. Przeszukiwanie sekwencyjne (serial search) - przeszukiw anie zaw artości pam ięci krótkotrwałej elem ent po elem encie, w kolejności zgodnej z uprzednią prezentacją bodźców.
Przetargu między szybkością a poprawnością, zasada (efekt) (speed-accuracy trade-off) - zasada, zgodnie z którą w trakcie w ykonyw ania czynności poznaw czych pod presją czasu konieczne jest ponoszenie k osztów w zakresie szybkości lub popraw ności; zwykle szybcy popełniają w iele błędów, natom iast poprawne reagowanie w iąże się z koniecznością znacznego spow olnienia przebiegu procesów przetwarzania informacji. Przetwarzanie informacji (information processing) - zm iana formy i sposobu reprezentacji informacji na jej na drodze m iędzy receptorem a efektorem. Przetwarzanie języka (language processing) - procesy przetwarzania informacji biorące udział w tworzeniu wyrażeń językowych i ich analizie. Przewagi obrazu nad słowem, efekt (picture superiority effect) - zjawisko, zgodnie z którym kodowanie obrazowe bardziej sprzyja efektyw ności zapam iętania niż kodow anie werbalne. Przewagi słowa nad literami, efekt (word superiority effect) - zjawisko polegające na łatwiejszej identyfikacji litery, jeśli jest ona częścią sensow nego, znanego osobie badanej słowa. Przypominania, metoda (recall) - bezpośrednia m etoda badania odpam iętywania wiedzy jawnej; osoba badana ma za zadanie przywołać z pam ięci określony materiał; podstaw owe jej odmiany to przypom inanie sw obodne, przypom inanie ukierunko w ane i przypominanie parami. Rachunek predykatów (predicate calculus) - logiczny system em przetwarzania reprezentacji poznaw czych w formie abstrakcyjnych twierdzeń opisowych; um ożliw ia łączenie i przekształcanie sądów. Racjonalność ekologiczna (ecological rationality) - konstrukt tłum aczący niepełne dostosow anie um ysłów naszego gatunku do wym agań stawianych przez m yślenie abstrakcyjne, w przeciw ieństw ie do znakom itego d ostosow ania do m yślenia prak tycznego. Realizm - pogląd w sporze o naturę reprezentacji poznaw czych, zgodnie z którym reprezentacje te powstają w wyniku biernego i bezpośredniego odw zorow ania („od ciśnięcia”) bodźca w poznającym umyśle. Recepcja sensoryczna (sensory réception) - proces rejestracji bodźców w kom órkach receptorycznych narządów zmysłów; prowadzi do pow stania wrażenia zm ysłow ego. Redukcji różnicy, metoda (difference-reduction) albo heurystyka „wspinania się” (hill climbing) - metoda rozwiązywania problemów; każde kolejne przekształcenie stanu wiedzy, skonfrontow ane z celem, pow inno m aksym alnie redukować różnicę m iędzy stanem aktualnym a docelow ym ; wybór operatora, który będzie m aksym alnie przybliżać do celu, dokonuje się tylko ze względu na jedno przekształcenie (nie planuje się pełnej ścieżki). Regulacja (régulation) - jeden z aspektów kontroli poznawczej; reakcja procesów kontrolnych na błędy i zakłócenia w przebiegu procesów kontrolow anych.
652
Słownik term inów
_________________________________________________________________________________________ I
Reguła (production) - inaczej: produkcja; jednostka w iedzy proceduralnej. Reguła Bayesa (.Bayesian rule) - dość pow szechnie lekcew ażona reguła wnioskowania probabilistycznego, która w ocenie szans w ystąpienia jakiegoś zdarzenia nakazuje w ziąć pod uw agę tzw . proporcję podstaw ow ą, czyli ogólną częstość występowania tego typu zdarzeń. Relacja predykatywna - rodzaj relacji m iędzy pojęciami w hierarchicznej sieci sem antycznej, dotyczący w łaściw ości obiektu; w łaściw ości są kodowane na najwyż szym m ożliw ym p o zio m ie o g ó ln o ści w hierarchii, w m yśl zasady ekonom ii poznaw czej. Relacja przynależności do klasy - rodzaj relacji m iędzy pojęciami w hierarchicznej sieci sem antycznej; obejmuje pojęcia z różnych poziom ów hierarchii. Relacja semantyczna - w zajem ne odniesienie dwóch reprezentacji pojęciowych, wyrażające się sum ą w szystkich połączeń pom iędzy ich desygnatami i właściwościami; dwa pojęcia blisko ze sobą zw iązane zn aczeniow o charakteryzuje w ielość wzajemnych połączeń w sieci sem antycznej, odpowiadająca w spólnocie ich właściw ości. Relatywizmu językowego, hipoteza (lingusitic relativism) - pogląd, według którego nie ma dw óch identycznych języków, w ięc nie ma dwóch jednakowych sposobów poznaw czego reprezentow ania rzeczyw istości, przede w szystkim społecznej. Reprezentacja nietrwała - reprezentacja poznaw cza, która powstaje doraźnie, np. w celu podjęcia decyzji lub rozw iązania problemu, po czym zanika. Reprezentacja poznawcza (;mental representatiori) - 1. Ogólny obraz świata w umyśle. 2. U m ysłow y odpow iednik obiektów zarówno realnie istniejących, jak i fikcyjnych lub hipotetycznych, zastępujący obiekty w procesach przetwarzania informacji. Reprezentacja 2 V 2 - wymiarowa (21/ 2D) - w teorii Davida Marra: odzwierciedlenie obiektów rzeczyw istych, uwzględniające opis obiektów w kategoriach głębi oraz obrazu pow ierzchni w idocznej strony obiektu. Reprezentacja 3-wymiarowa (3D) - w teorii Davida Marra: ostateczny produkt procesu percepcji, odzw ierciedlenie uw zględniające pełny trójwymiarowy obraz obiektów w polu w zrokow ym (łącznie ze stroną niew idoczną dla oka), niezależny od lokalizacji punktu obserwacji oraz od kąta obserwacji. Reprezentacja trwała - reprezentacja poznaw cza, będąca elem entem trwałej struktury w iedzy, powstająca i zm ieniająca się w dłuższym cyklu czasowym. Reprezentacje poznawcze (representations) - poszczególne składniki ogólnego obrazu św iata w um yśle (obrazy um ysłow e, pojęcia, sądy, m odele um ysłow e). Reprezentacjonizm - pogląd, że um ysł poznaje świat nie bezpośrednio, lecz za pośrednictw em w łasnych kategorii poznaw czych (pojęć, wyobrażeń, sądów). Rozbiór zdania (parsing) - logiczna analiza struktury zdania; czynność, polegająca na m entalnym w yodrębnieniu istotnych elem en tów gram atycznych zdania, przede w szystkim podm iotu i orzeczenia. Rozpoznawania, metoda (recognition) - pośrednia m etoda odpamiętywania wiedzy jawnej; osoba badana ma za zadanie rozpoznać, czy prezentowany jej materiał jest zgodny albo niezgodny z tym, co w cześniej było zapamiętywane; metoda podatna na w pływ ze strony w iedzy niejawnej. Rozpoznawanie wzorców (pattern recognition) - proces identyfikacji rzeczywistych obiektów w ich środowisku. Rozprzestrzeniająca się aktywacja (spreading activation) - hipotetyczny mechanizm działający w sieci sem antycznej, dzięki któremu zachodzi proces aktywowania zgrom adzonych w niej pojęć (w ęzłów ); aktywacja rozchodzi się w sieci jednocześnie
1 i | \
i j
j
I
;
Słownik terminów
653
w wielu kierunkach, korzystając ze struktury połączeń; słabnie wraz z oddalaniem się od pojęcia (węzła) początkow ego. Rozumowanie (;reasoning) - proces poznaw czy, który przekształca informacje na podstawie przesłanek tak, aby wyprowadzić z nich w niosek. Rozumowanie dedukcyjne (deduction) - polega na w yciąganiu w niosków , które w sposób niezaw odny wynikają z dostarczonego zestaw u przesłanek; odbywa się z wykorzystaniem formalnych reguł logiki; poniew aż w nioski wynikają z przesłanek w sposób konieczny, rozum ow anie dedukcyjne zw ane jest rów nież rozum ow aniem niezawodnym; nie prowadzi do generowania nowej wiedzy, bow iem to, co zawiera wniosek, było wcześniej zawarte w przesłankach Rozumowanie indukcyjne (induction) - polega na wyciąganiu w n iosków na pod stawie niepełnego zbioru przesłanek, zgrom adzonych np. na drodze obserwacji; analiza przesłanek prowadzi do wykrycia i sform ułowania pewnych praw idłow ości ogólnych, które są przedm iotem twierdzenia; w trakcie rozum ow ania indukcyjnego wychodzim y poza posiadane informacje i formułujemy w nioski, które zawierają n ie dostępną wcześniej w iedzę. Rozumowanie warunkowe (conditional reasoning) - rodzaj rozum owania odwołujący się do tzw. rachunku zdań , czyli formuł opisujących tautologiczne (prowadzące zawsze do w niosków prawdziwych) reguły wnioskow ania; wyrażenia rachunku zdań składają się ze zmiennych zdaniowych (litery P, Q, R itp .),funktorów: negacji („nie”:), implikacji („jeżeli- to ”: - ► ) , koniunkcji („i”: ) , alternatywy (,,lub”:v ) dysjunkcji („albo”:/) i rów n ow ażn ości („w tedy i tylko w tedy, gdy”: ^ ) , oraz nawiasów oddzielających poszczególne formuły od siebie. Rozwiązywanie problemów (problem-solving) - aktyw ność ukierunkow ana na zredukowanie rozbieżności pom iędzy stanem aktualnym a pożądanym, polegająca na realizacji zaplanowanej sekwencji operacji poznawczych. Różnicowanie (differentiation) - zjawisko tow arzyszące proceduralizacji; polega na odróżnianiu w arunków uruchom ienia różnych procedur, jest przeciw ieństw em generalizacji. Ruch sakkadowy (saccadic eye movement) - ruch gałek ocznych, um ożliwiający rejestrowanie coraz to now ych danych zm ysłow ych, pojawiających się w polu wzrokowym. Rywalizacja egzemplarzy - hipotetyczny proces w spółzaw odnictw a czynności o róż nym stopniu autom atyczności; w yścig „wygrywa” czynność najbardziej autom atyczna i ona w łaśnie zostaje uruchom iona. Sapira-Whorfa, hipoteza (Sapir-Whorf hypothesis) - inaczej: hipoteza determinizm u językowego. Sąd (proposition) - inaczej: twierdzenie; rodzaj reprezentacji poznawczej, polegający na przechowywaniu w iedzy w postaci twierdzeń; każde twierdzenie dotyczy jakiegoś obiektu i jego atrybutów (np. kot jest czarny) albo kilku obiektów i łączących je relacji (np. kot jest ssakiem ). Sąd (judgment) - inaczej: ocena; w yrażone wprost twierdzenie na tem at określonego stanu rzeczy, np. przynależności obiektu do określonej kategorii, posiadania przez obiekt określonej cechy, wartości danego obiektu z punktu w idzenia określonego kryterium, a także prawdopodobieństwa w ystąpienia określonego zdarzenia. Sąd intuicyjny (intuitive judgment) - 1. Taki, którego nie potrafimy uzasadnić; przeczucie. 2. Taki, który w ynika z naiw nego dośw iadczenia i w iedzy potocznej. 3. Sąd alogiczny, ignorujący zasady logiki. a
654
Słownik terminów
Schemat narracyjny (narrative schema, pi. schemata) - jednostka w iedzy zorganizo w ana ze w zględu na epizody.
Schemat poznawczy (cognitive schema, pi. schemata) - złożona forma trwałej reprezen tacji poznawczej, obejmująca zarówno sens typowej sytuacji, jak i znaczenie typowych form zachowania, które powinny być wygenerowane w reakcji na tę typową sytuację. Schematu, część elastyczna - reprezentacje pojęciow e charakterystyczne, ale nie kon ieczn e dla wybranych sytuacji z zakresu, do których odnosi się schemat. Schematu, rdzeń - reprezentacje pojęciow e w spólne w szystkim sytuacjom z zakresu, do których odnosi się schemat. Schematy rozwiązywania problemów (problem solving schemata) - metody roz w iązyw ania problem ów zw iązane ze specyfiką danej dziedziny w iedzy eksperckiej; ograniczone do konkretnych typów problemów, trudne do generalizacji, ale szybkie do zastosow an ia w konkretnej sytuacji. Segmentacja (segmentation) - m entalny podział ciągu fonem ów na poszczególne słow a lub frazy, warunkujący rozum ienie kom unikatu werbalnego. Selekcja źródła informacji - proces wyboru bodźców w ażnych (sygnały) ze względu na przyjętą zasadę selekcji, przy jednoczesnym odrzuceniu informacji nieważnych (szum ) i zakłócających (dystraktory). Selektywne kodowanie (selective encoding) - wybiórczy odbiór informacji z zewnątrz, rów nież danych obecnych w polu problemowym, ale do tej pory ignorowanych. Selektywne łączenie (selective combination) - wybiórcze zestaw ianie posiadanych elem entów w iedzy w now e całości, które m oże doprowadzić do rozwiązania lub restrukturyzacji problemu. Selektywne porównywanie (selective comparison) - wybiórcze odnoszenie nowych informacji do już posiadanej w iedzy dokonyw ane przy użyciu analogii bądź metafory, gdy zostan ie dostrzeżone podobieństw o now ego problemu do starej wiedzy. Selektywne zapominanie (selective forgetting) - w yłączanie z reprezentacji sytuacji problemowej elem entów , które są nieistotne albo nie pasują do żadnej z „upako w an ych ” nadrzędnych struktur wiedzy; charakterystyczne dla fazy inkubacji. Selektywność (selectivity) - zróżnicow anie w zakresie sposobu przetwarzania informacji, pochodzących z w ielu różnych źródeł. Semantyczna zasada selekcji - zasada, zgodnie z którą o tym, który bodziec zostanie zaakceptow any przez filtr uwagi w procesie selekcji informacji decyduje to, jakie bodziec posiada znaczenie z punktu w idzenia aktualnie w zbudzonych procesów przetwarzania informacji. Sensoryczna zasada selekcji - zasada, zgodnie z którą o tym, który bodziec zostanie zaakceptow any przez filtr uwagi w procesie selekcji informacji decydują fizyczne parametry tego bodźca, takie jak jego intensyw ność, czy kolejność w szeregu, a także fizyczne w sp ółistn ien ie innych bodźców . Sensytywny, okres (sensitive period) - opisywany przez psycholingw istów okres szczególnej podatności dziecka na przyswajanie języka. Trwa od urodzenia do mniej w ięcej czw artego roku życia. Sieciowe modele umysłu (network models of cognition) - grupa teorii, opisujących um ysł jako sieć złożon ą z dużej liczby stosunkow o prostych jednostek. Sieć neuropodobna (neuronowa) (neural network) - sztuczny system przetwarzania informacji, charakteryzujący się działaniem rozproszonym i równoległym. Sieć semantyczna (semantic network) - złożona struktura trwałych reprezentacji pojęciow ych, w ramach której pojęcia są w ęzłam i sieci, powiązanym i relacjami sem antycznym i.
Słownik terminów
655
Siły przekonań, efekt - interferencja w iedzy bądź przekonań z logiczną popraw nością wnioskow ania dedukcyjnego; w iarygodność konkluzji sylogizm u utożsam iana jest z prawdopodobieństwem realnego zaistnienia stanu rzeczy opisanego przez kon kluzję. Skąpiec poznawczy (cognitive miser) - metafora um ysłu ludzkiego, podkreślająca tendencję do angażowania w konkretnej sytuacji tylko części dostępnych m ożliw ości przetwarzania informacji. „Skrzynka narzędziowa” (adaptive toolbox) - metafora um ysłu jako zbioru w yspecja lizowanych m odułów o w ąskim zakresie stosow alności. Słownik umysłowy (mental lexicon) - zbiór w szystkich leksem ów (słów wraz z ich znaczeniam i), którymi dysponuje konkretny użytkow nik języka. Słów-wieszaków, metoda (peg-words) - technika m nem oniczna, polegająca na użyciu jakiegoś dobrze znanego tekstu jako „w ieszaka” albo szkieletu dla n ow o nabywanej informacji; tekstem -w ieszakiem m oże być dziecięcy wierszyk, rymowanka czy w yli czanka, ale raczej o treści konkretnej niż abstrakcyjnej, co pozwala stworzyć obrazy interaktywne, będące podstawą nakładania now ego materiału na stary. Spadku czujności uwagi, efekt (vigilance décrément) - zjawisko, zgodnie z którym m ożliw ości w zakresie k oncentracji uw agi zn aczn ie się obniżają na skutek przedłużającej się w czasie k onieczności utrzymywania czujności uwagi. Specyficzności kodowania, efekt (specificity of encording) - zjawisko polegające na ułatwieniu odpamiętania informacji, jeśli występuje zgodność w skazów ek w ykorzys tanych w trakcie kodow ania i w ydobywania informacji. Specyficzności produkcji, zasada (specificity of production) - zasada nadająca prymat bardziej wyspecjalizowanej produkcji (regule); w przypadku niem ożliw ości jedno czesnej aplikacji w szystkich produkcji; najpierw sprawdzane są warunki użycia reguły opisującej odstępstwa od reguły bardziej ogólnej. Stopień przystawania obrazu sensorycznego i modelu umysłowego - w skaźnik po dobieństwa ustalany w procesie porównania danych zm ysłow ych z danymi um ysło wymi; miara um ożliwiająca rozpoznanie obiektu w przypadku niewielkiej rozbież ności. Spostrzeganie (perception) - całość procesów poznaw czych, prow adzących do spostrzeżenia; odbiór i interpretacja wrażeń zm ysłowych. Spostrzeżenie (percept) - całościow e odzw ierciedlenie i interpretacja obiektów rze czywistych, składających się na ten obiekt bodźców dystalnych i w yw oływ anych przez nie wrażeń. Stałość spostrzegania (perceptual constancy) - zjawisko braku różnic w spostrzeganiu mimo zmiany warunków percepcyjnych; podstaw ow e stałości percepcyjne to: stałość wielkości, kształtu oraz jasności i koloru. Stan docelowy (goal State) - część składowa problemu; stan, na który ukierunkowane są procesy poszukiw ania rozwiązania; istnieją kryteria oceny jego osiągnięcia. Stan początkowy (initial State) - składowa problemu zwierająca dane w yjściow e, okoliczności, które decydują o postrzeganiu sytuacji jako problemowej; mogą być ukryte w opisie problemu a w tedy należy je w ydedukow ać z tego, co jawne, lub w yw nioskow ać z kontekstu. Sterowanie - jeden z aspektów kontroli poznawczej; aktywne i planow ane w pływanie przez procesy kontrolne na przebieg procesów kontrolowanych. Strategia dopasowania (matching strategy) - polega na wyborze konkluzji pasującej do logicznej formy tej przesłanki, która jest bardziej „zachow aw cza”; przesłanka bardziej zachowaw cza to taka, która dotyczy mniejszej liczby przypadków.
656
Słownik terminów
Strategia eliminacji według aspektów (.elimination-by-aspects strategy) - w podejm ow aniu decyzji: odrzucanie w szystkich opcji, które nie spełniają wymagań; te, które nie zostaną w yelim inow ane, poddaje się dalszej, systematycznej ocenie. Strategia powracającego celu (goal recursion strategy) - m etoda rozwiązywania problemów; m oże być skutecznie stosow ana, gdy uda się wyróżnić cel cząstkowy, którego w ielokrotna realizacja stopniow o przybliża do rozwiązania problemu Strategia poznawcza (cognitive strategy) - jakościow o sw oisty sposób wykonania zadania poznaw czego, nie mający bezpośredniego związku ze sprawnością działania um ysłu, a raczej ze sposobem , w jaki um ysł zmaga się z zadaniem. Strategia zadowolenia (satisficing strategy) - w podejm owaniu decyzji: przyjęcie pierwszej opcji, która spełnia m inim alne kryteria satysfakcji, połączone z zaniechaniem dalszych poszukiw ań. Stroopa, efekt - zjaw isko interferencji m iędzy czyn n ością zautom atyzowaną (czytanie) a czynnością kontrolow aną (nazywanie koloru czcionki); osoba badana w idzi słow a oznaczające kolory, napisane różnymi kolorami czcionki; jeśli znaczenie słow a jest niespójne z kolorem czcionki, czas reakcji się wydłuża, co jest miarą w ielkości efektu Stroopa. Struktura głęboka (deep structure) - jeden z m ożliw ych poziom ów analizy języka, abstrakcyjna postać zdania, w yrażona w postaci drzewka derywacyjnego. Struktura głęboka problemu - zawiera reguły przekształcania stanu początkowego i stanów pośrednich (zob. operatory) oraz relacje zachodzące pom iędzy elementami składowym i problem u. Struktura kontrolna (control structure) - hipotetyczny m echanizm odpowiedzialny za wybór jednej reguły (produkcji) w przypadku, gdy kilka z nich wykaże satysfak cjonującą zgodność w arunków ich uruchomienia; przy wyborze obowiązuje zasada specyficzności produkcji. Struktura powierzchniowa (surface structure) - jeden z m ożliw ych poziom ów analizy języka, rzeczyw iste zdanie utw orzone w edług obowiązujących reguł gramatycznych. Struktura powierzchniowa problemu - zawiera dane w yjściow e związane z problemem (zob. stan początkow y). Struktury poznawcze (cognitive structures) - w zględnie trwałe elem enty umysłu, m ożliw e do w ielokrotnego wykorzystania w różnych warunkach i sytuacjach. Subsystem niewerbalny (nonverbal subsystem) - część system u podwójnego kodow ania, dzięki której m ożliw e jest utw orzenie obrazu um ysłowego dla odzwier ciedlanych w um yśle obiektów . Subsystem werbalny (verbal subsystem) - część system u podwójnego kodowania, dzięki której m ożliw e jest kodow anie odzwierciedlanych w um yśle obiektów w postaci sym boli językowych, zazwyczaj słów języka naturalnego, ale też i innych etykiet werbalnych. Swobodnego odtwarzania, metoda (free recall) - klasyczna procedura służąca do badania pamięci; odtwarzanie słów z zaprezentowanej wcześniej listy w dowolnej kolejności. Sylogizm (syllogism) - schem at w nioskow ania dedukcyjnego, w którym wniosek w yciąga się na podstaw ie dw óch przesłanek; sylogizm tworzą obie przesłanki (więk sza i m niejsza) wraz z w nioskiem . Sylogizm kategorialny (categorial syllogism) - zadanie logiczne, które orzeka o przynależności użytych w nim term inów do określonej kategorii; przynależność do kategorii, wyrażona w przesłankach, dookreślona jest kwantyfikatorem wielkim
1 j
j j j
j j
j j j
j
j
j j ?
j j
j j i
Słownik terminów
657
(wyrażenia typu „w szystkie”, „żaden” itp.) albo małym (wyrażenie typu „niektóre” itp.) i ma postać twierdzącą albo przeczącą. Sylogizm liniowy (linear syllogism) - zadanie logiczne, w którym zw iązek m iędzy jego terminami ma charakter liniow y i dotyczy porównania natężenia (ilościow ego albo jakościowego) jakiejś w łaściw ości użytych term inów. Symulacja komputerowa (computer sim u lation ) - m etoda badawcza, polegająca na tworzeniu system ów kom puterowych, zdolnych do naśladow ania wybranych funkcji umysłu ludzkiego. Syndrom czołowy (frontal syndrom e) - niespecyficzne upośledzenie w ykonyw ania jakichkolwiek operacji poznawczych, przebiegających w dow olnych obszarach um ys łu, mające swoje konsekw encje w postaci dezorganizacji w szystkich form zacho wania; powstaje w skutek uszkodzeń strukturalnych m ózgu w zakresie przednich płatów czołow ych. System kontroli czynności automatycznych - w przypadku konfliktu czynności automatycznych decyduje o tym, która czynność jest realizowana jako pierwsza w kolejności; system realizuje to zadanie hamując w szystkie rutyny, które w m niej szym stopniu - niż w yselekcjonow ana czynność autom atyczna - są dostosow ane do sytuacji bodźcowej; odpowiada za „rozkład jazdy” czynności autom atycznych. System kontroli czynności nieautomatycznych - aktywny zaw sze wtedy, kiedy po m iędzy dwom a celow ym i czynnościam i nieautom atycznym i w ystępuje konflikt interesów, powodow any przez niespójność bodźców , ich reprezentacji w um yśle lub generowanych w odpow iedzi na nie reakcji; odpowiada za u łożenie now ego „pla nu działania”. System podwójnego kodowania (dual coding sy ste m ) - zd o ln o ść um ysłu do reprezentowania obiektów w dwóch odm iennych - ze względu na sposób kodowania, strukturę organizacji oraz sposób przetwarzania - subsystem ach: niewerbalnym (obrazowym) i werbalnym (językowym ). Systemy pamięci - odrębne system y reprezentacji nabywanej, przechowywanej i odtwarzanej informacji oraz reguły jej przetwarzania; w iele teorii w ysuw a postulat 0 ich odrębności ze w zględu na m echanizm y m ózgow e lub specyficzność błędów pa mięci. Systemy reguł albo systemy produkcji (production Systems) - system y w iedzy proceduralnej; poznawcza reprezentacja w iedzy obejmującej czynności poznaw cze 1 motoryczne; pozwalają na tw orzenie złożonych procedur działania. Szkicownik wzrokowo-przestrzenny (visuo-spatial sketch-pad) - w pam ięci roboczej odpowiednik pętli fonologicznej, przeznaczonej do krótkotrwałego przechow yw ania materiału w zrokow ego i przestrzennego. Sztuczna inteligencja (artificial intelligence, A l) - dział nauki, zajmujący się tworzeniem system ów kom puterowych zdolnych do wykonyw ania inteligentnych czynności poznawczych. Sztywność myślenia (rigidity of thought) - utrzym ywanie się przeświadczenia, postawy lub sposobu działania, mim o zmiany warunków; czynnik przeszkadzający w zm ianie reprezentacji problemu, czyli jego redefinicji i rozwiązaniu; szczególnie uciążliwy w przypadku problem ów wymagających wglądu. Szyk optyczny (optic array) - porządek, zgodnie z którym informacje w izualne docierają do receptorów; informacje te są porządkowane ze w zględu na intensyw ność światła odbijanego od poszczególnych obiektów Ścieżki sieci semantycznej - połączenia m iędzy w ęzłam i sieci sem antycznej, zróżniowane pod względem wagi i znaku; im silniejsza relacja sem antyczna m iędzy dwiem a
658
Słownik terminów
reprezentacjami pojęciowym i, tym w iększa waga przypada łączącej je ścieżce; ścieżki m ogą być zo rg a n izo w a n e na p o d sta w ie p o łą czeń p ozytyw n ych , np. relacja sem antyczna „jest to ”, lub negatywnych, np. relacja „nie jest to ”. Świadomość (consciousness, awareness) - zdawanie sobie przez podmiot sprawy z treści w ła sn y ch p rocesów p sychicznych , np. z tego, co jest przedmiotem spostrzegania, m yślenia lub doznań em ocjonalnych. Świeżości, efekt (recency effect) - w yższe praw dopodobieństw o odtworzenia bodźców z końca listy np. słów; w yjaśniany udziałem pamięci krótkotrwałej w odtwarzaniu materiału; silnie podatny na upływ czasu i na interferencję. Tendencyjność (b ia s) - skłonność do popełniania system atycznych błędów w rozum ow aniu, podejm ow aniu decyzji i wydawaniu sądów. Błędy wynikające z ten dencyjności nie są przypadkowe, to znaczy mają zaw sze tę samą postać i pojawiają się w tych samych okolicznościach. Tłumienia dystrakcji, efekt (distractor-supression effect) - zjawisko polegające na tym, że reakcja na uprzednio tłum iony aspekt bodźca konfliktowego jest wolniejsza niż w ów czas, gdy aspekt ten nie był uprzednio odrzucany. Tłumienia sakkadowego, efekt - zjawisko, zgodnie z którym w trakcie ruchu sakkadow ego narząd wzroku nie jest w stanie rejestrować jakichkolwiek informacji. Tłumienie artykulacyjne (articulatory suppresion) ~ procedura obciążenia pętli fon ologiczn ej pow tarzaniem zadanego słowa; blokuje m echanizm bezgłośnych powtórek. TOP - zbiór ogólnych tem atów lub m otywów, których mogą dotyczyć złożone schem aty. Transfer przez analogię (analogical transfer) - szczególny przypadek transferu pozytywnego; przeniesienie przez analogię odkrytej relacji łączącej parę lub więcej pojęć na in n e pojęcia; w ym aga d ostrzeżen ia relacji w yższego rzędu między problemami. Transfer wiedzy (transfer of knowledge) - przenoszenie w iedzy z pewnej dziedziny na zupełnie inną dziedzinę; jeśli uprzednie dośw iadczenia ułatwiają pracę nad nowym problemem m ówim y o transferze pozytywnym; transfer negatywny ma miejsce wówczas, gdy rozw iązanie skuteczne w odniesieniu do jakiegoś problemu utrudnia lub całkow icie uniem ożliw ia prace nad innym zadaniem. Transferu, efekt (transfer effect) - zjawisko polegające na tym, iż dobrze wyuczona czynność utrudnia (transfer negatywny) lub ułatwia (transfer pozytywny) wykonyw anie czynności podobnej, ale nie tożsam ej z uprzednio wyuczoną; rodzaj transferu jest zależny od podobieństw a zestaw ów bodźców i odpowiadających im wymaganych reakcji. Transformacji, reguły (transformational rules) - reguły przekształcenia głębokiej struktury języka w strukturę pow ierzchniow ą. Transparencja (transparency) - dopatrywanie się związku analogii tam, gdzie jej nie ma, często w wyniku zbyt konkretnego (powierzchniowego) ujęcia relacji między pojęciami; jej podstaw ę stanow i błędny proces abstrahowania. Trening jednorodny - w ystępuje wtedy, gdy jedna i ta sama reakcja w procesie nabywania wprawy jest odpow iedzią na zaw sze ten sam układ bodźców. Trening niejednorodny - w procesie nabywania wprawy : polega na częstych zmianach kategorii bodźców przy zachow aniu tego samego typu reakcji. Trójkąt semantyczny - relacje m iędzy sym bolem (np. słow em ), znaczeniem i desygnatem (obiektem oznaczanym ). Twórczość (creativity) - aktyw ność, przynosząca efekty now e i wartościowe.
j j .j
! j j
j j j ; j
] ] j
j j
! i
j
] -j ] j
j
Słownik terminów
659
Twórczość językowa (linguistic creativity) - 1. Ogólna zdolność um ysłu ludzkiego do tworzenia wyrażeń językowych, których w cześniej nie m iało się okazji usłyszeć ani przeczytać. 2. Szczególna zdolność (talent) do tw orzenia wyrażeń językowych, które spełniają kryteria now ości i wartości (np. estetycznej). Uczenie się sekwencji (sequence learning) - 1. Reagowanie na serię bodźców , pojawiających się na ekranie zgodnie z ukrytą sekwencją, określającą reguły następ stwa bodźców w serii. 2. Jedna z m etod badania m im ow olnego uczenia się. Uczenie się sztucznych gramatyk (artificial gram m ar learning, AGL) - m etoda badania m im ow olnego uczenia się; obejmuje dwie fazy: 1) uczenia się egzem plarzy ciągów literowych zgodnych z system em reguł sztucznej gramatyki i 2) klasyfikowania ciągów na gramatyczne i niegramatyczne. Umysł (m in d) - zło żo n y system p ozn aw czy, w y sp ecja lizo w a n y w od b iorze i przetwarzaniu informacji. Układ stanów wiedzy (knowledge states) - konfiguracja w ew nętrznych reprezentacji, odnoszących się do sytuacji problemowej. Upraszczanie problemu - sto so w an e w przypadku rozw iązyw ania problem ów złożonych, które wymagają w ielu operacji kom binatorycznych przeładowujących STM; upraszczania dokonuje się oswajając problem albo na drodze selektyw nego zapominania. Urządzenie do przyswajania języka (language acquisition d e v ic e , LAD) - hipote tyczny, wrodzony m echanizm m ózgowy, um ożliwiający ludziom szybkie nabywanie reguł korzystania z języka naturalnego. Ustrukturyzowanie hierarchiczne sieci sem antycznej - organizacja w iedzy w koncepcji sieci semantycznej, w której pojęcia bardziej ogólne znajdują się wyżej w hierarchii; odległość pojęć w sieci zw iązana jest ściśle z podobieństw em ich znaczenia. Utrata wskazówek dostępu (cue-dependent forgetting) - m echanizm zapom inania polegający na utracie „ścieżki” dostępu do informacji przechowywanej w pamięci; informacja ta jest nadal potencjalnie dostępna, jednak w danym m om encie n ieosią galna; trudność ta jest skutkiem braku w łaściw ego klucza w ydobycia lub niezgodności kontekstu odpamiętywania z kontekstem kodow ania informacji w pamięci. Uwaga (attention) - system selekcji informacji, odpow iedzialny za redukcję nadmiaru danych docierających do system u poznaw czego. Uwagi, moduł (attentional m odule) - w yspecjalizow ana struktura, posiadająca własne zasoby i przeznaczona do wykonyw ania pojedynczych czynności pozna wczych, zdefiniowana na w ejściu przez rodzaj receptora, na wyjściu - przez rodzaj efektora, oraz w kanale przetwarzania - przez rodzaj reprezentacji poznaw czej. Uwagi, przełącznik - hipotetyczny m echanizm filtru uwagi um ożliwiający „jedno czesn e” wykonywanie dwóch lub większej liczby czynności dzięki szybkiem u prze łączaniu się pomiędzy m odułam i realizującymi poszczególne zadania. Wachlarza, efekt (fan effect) - metafora opisująca strukturę połączeń w teorii rozprzestrzeniającej się aktywacji, odchodzących od danego w ęzła sieci; im szerszy wachlarz połączeń, tym więcej sąsiadujących w ęzłów m oże zostać pobudzonych i tym słabsze będzie pobudzenie, które otrzyma każdy z nich. Wewnętrzny leksykon - zawiera etykiety werbalne pojęć, stanow iących w ęzły sieci semantycznej; zorganizowany w edług fonetycznego i sem antycznego podobieństw a pojęć. Wewnętrzny „skryba” (inner scribe) - jeden z m echanizm ów funkcjonow ania szkicow nika w zrokow o-przestrzennego w koncepcji pam ięci roboczej; pełni rolę aktywnego m echanizmu podtrzymywania informacji niewerbalnej.
660
Słownik terminów
Węzły (nodes) - odpowiadają pojęciom w sieciowej strukturze w iedzy seman tycznej. Wgląd (insight) - nagła zm iana percepcji problemu, prowadząca do zrozum ienia jego istoty, poprzedzona zazwyczaj inkubacją; m ożna dośw iadczać go kilkakrotnie nawet podczas rozw iązyw ania jednego problemu. Widzenie stereooptyczne (stereopsis) - ocena odległości położenia obiektów w polu w zrokow ym , wynikająca z faktu, że każde oko odbiera nieco inne wrażenia zmysłowe; analiza rozbieżności w idzenia każdym z dwojga oczu pozwala ocenić, jak daleko znajduje się obiekt. Wiedza (knowledge) - forma trwałej reprezentacji rzeczyw istości, mająca postać uporządkowanej i w zajem nie powiązanej struktury informacji, kodowanej w pamięci długotrwałej. Wiedza deklaratywna albo wiedza „że” - odnosi się do danych (faktów), kodowanych w pam ięci trwałej; łatwa do werbalizacji; jej w ydobycie ma charakter wolicjonalny. Wiedza ekspercka (expert knowledge) - w iedza obszerna, pogłębiona, ograniczona do jakiejś konkretnej dziedziny; obejmuje nie tylko w iedzę deklaratywną, ale również specyficzne schem aty rozw iązyw ania problemów; cechuje się szczegónie dobrą organizacją i w ysokim poziom em proceduralizacji. Wiedza niejawna (im plicit) - efekt m im ow olnego uczenia się; jest zazwyczaj niedostępna św iadom ości i werbalizacji; m oże być użyta w procesie rozwiązywania problem ów i podejm ow aniu decyzji, gdy sytuacja jest podobna do tej, w której została nabyta. Wiedza proceduralna albo wiedza „jak” - odnosi się do um iejętności, czyli czynności m otorycznych i um ysłow ych (procedur), kodow anych w pamięci trwałej; nabywana w drodze treningu albo proceduralizacji; jej nabywanie wymaga wielokrotnych pow tórzeń czynności; urucham iana autom atycznie, jeśli procedura jest dobrze w ytrenow ana. Wiedza semantyczna - zawarta w pam ięci semantycznej; zorganizowana na kilku poziom ach (pojęć, sądów oraz ich układów ), odpowiadających strukturze języka; posiada budow ę sieciow ą z w ęzłam i i połączeniam i m iędzy nimi. Wiedza ukryta albo „milcząca” (tacit knowledge) - nie wiem y, że ją posiadamy; trudna do werbalizacji; nabywana sam odzielnie, w drodze doświadczenia; ma cha rakter proceduralny; jest stosow ana w praktyce. Wrażenie (sensation) - najprostszy proces psychiczny, w wyniku którego dochodzi do odzw ierciedlenia w um yśle pojedynczych cech rejestrowanych obiektów. Wskazówki okulomotoryczne - um ożliwiają szacow anie dystansu obiektów w po lu w zrokow ym na podstaw ie rejestrowania zm ian w zakresie położenia gałek ocznych. Wskazówki wizualne - um ożliw iają szacow anie dystansu obiektów w polu wzroko wym n iezależnie od ruchu obiektu lub obserwatora; wyróżnia się w skazów ki jedno oczne i dw uoczne. Wspólna płaszczyzna (com mon ground) - podzielane przez obie strony konwersacji elem enty wiedzy, często niejawnej. Wzorzec (tem plate) - um ysłow y odpow iednik obiektu, do którego w procesie spostrzegania „przykłada się ” obiekt w celu jego identyfikacji. Wyodrębniania figury z tła, zasady - reguły, zgodnie z którymi um ysł wyodrębnia całości (figury) z tła różnorodnych wrażeń; figurę tworzą elem enty znajdujące się blisko siebie, jednakow e lub podobne, poruszające się w tym samym kierunku lub łatw o uzupełniane do całościow ej figury.
Słownik terminów
661
Wymiar pionowy pojęcia - służy do odzw ierciedlenia stopnia ogólności reprezentacji pojęciowej; wraz ze w zrostem ogólności maleje liczba cech definiujących pojęcie oraz rozróżnialność pom iędzy poszczególnym i desygnatam i. Wymiar poziomy pojęcia - służy do odzw ierciedlenia stopnia typow ości desygnatu w ramach danej reprezentacji pojęciowej. Wyobraźnia (im ag ery) - zd o ln o ść um ysłu do generow ania w yob rażen iow ych reprezentacji świata. Wyobrażenie (image) - inaczej: obraz um ysłowy. Zadanie selekcyjne (selection task) - zadanie logiczne, wym agające poprawnego stosow ania trybów w nioskow ania modus ponens i m odus tollens; polega na wery fikacji prawdziwości implikacji. Zanikanie śladu pamięciowego (decay) - m echanizm zapom inania, w którym podstawowym czynnikiem wpływającym na trw ałość śladów pam ięciow ych jest interwał czasu m iędzy jego utw orzeniem a próbą wydobycia; jeśli ślad nie będzie odśw ieżony lub przywoływany, jego dostępność będzie spadać wraz z czasem , aż do całkowitego zaniku. Zapamiętywanie - czynność pam ięciowa, polegająca na w prow adzeniu informacji do jednego z system ów pamięci; wymaga zakodow ania informacji (.encoding), a następnie utrwalenia zapisu. Zapominania z powodu przywoływania, efekt - zjawisko polegające na tym, że przywoływanie niepowtarzanych egzemplarzy z ćw iczonych kategorii jest znacznie słabsze niż egzemplarzy z kategorii niećw iczonych. Zasoby uwagi (attentional resources) - pewna ilość energii m entalnej czy też m ocy obliczeniowej, która m oże być przeznaczona na w ykonanie poszczególnych procesów przetwarzania informacji. Zdania „ślepej uliczki” (garden path sentences) - szczególny rodzaj zdań dw uznacz nych, m ożliw ych do alternatywnego zinterpretowania. Zestaw zadaniowy (task set) - w yspecjalizowany, dobrze zorganizow any i dopa sowany do sytuacji układ operacji poznaw czych, niezbędnych do w ykonania za dania. Zestawu zadaniowego, rekonfiguracja (task set reconfiguration) - zm iana w zakresie bieżącego zestawu zadaniowego, konieczna gdy dwa następujące po sobie zadania wymagają udziału tych samych procesów, ale w innym układzie, albo też zupełnie innego zestaw u procesów; jeden z etapów przerzucania uwagi m iędzy zadaniam i lub obiektami. Złudzenie hazardzisty (ga m b lefs fallacy) - fałszyw e przekonanie, że w przypadku zdarzeń losow ych „los musi się odw rócić”, np. że po serii zdarzeń jednego rodzaju musi wystąpić seria zdarzeń innego rodzaju. Złudzenie koniunkcji (conjuction fallacy) - przypadek tendencyjnego szacow ania prawdopodobieństwa, polegający na wyższej ocenie prawdopodobieństwa łącznego wystąpienia dwóch zdarzeń w porównaniu z oceną prawdopodobieństwa w ystąpienia każdego z nich osobno. Złudzenie osobistego doświadczenia - p rzecen ian ie zn a czen ia lub c z ę sto śc i w ystępow ania zdarzeń, których było się osobistym świadkiem. Złudzenie wglądu wstecznego (hindsight bias) - przecenianie praw dopodobieństw a wystąpienia pewnego zjawiska po st fa c tu m , czyli kiedy już w iadom o, że w ystąpiło. Znaczenie (meaning) - poznaw cza reprezentacja desygnatu, określająca jego cechy (atrybuty), funkcje lub przynależność kategorialną; fragment w iedzy o św iecie, wyrażonej pojęciami i sądami.
662
Słownik terminów
Znaczenie denotacyjne (den otation )
część w iedzy o obiekcie (desygnacie), dotycząca ogólnie uznanych faktów i obiektyw nie stwierdzanych cech lub funkcji obiektu. Znaczenie konotacyjne (connotation) część w iedzy o obiekcie (desygnacie), od w ołująca się do subiektywnych skojarzeń i emocji. Związek skojarzeniowy - podstaw ow y czynnik decydujący o sile połączeń między elem entam i w iedzy w sieci semantycznej; dzięki różnej sile tych związków, bardziej typow e obiekty są szybciej identyfikowane jako należące do określonej kategorii. -
-
Bibliografia
Ackerman, P. L. (1988). Determinants of individual differences during skill acquisition: cognitive abilities and information processing. Journal of Experimental Psychology: General, 117, 288-318. Adams, J. A. (1963). Experimental studies of human vigilance. US Airforce Technical Document Report, No. FSD-TDR, 63-320. Adelson, B. (1984). When novices surpass experts: The difficulty of a task may increase with expertise. Journal of Experimental Psychology: Learning, Memory, and Cognition, 10, 483-495. Allen, B. P., Lindsay, D. S. (1998). Amalgamations of memories: Intrusion of information from one event into reports of another. Applied Cognitive Psychology, 12, 277-285. Allport, A. (1980a). Attention and performance. W: G. Claxton (red.), Cognitive Psychology. New directions (t. 4, s. 112-153). London: Routledge. Allport, A. (1980b). Patterns and actions: Cognitive mechanisms are content-specific. W: G. Claxton (red.). Cognitive Psychology. N ew Directions, (t. 2, s. 23-64). London: Routledge. Allport, A. (1992). Attention and control: Have we been asking the wrong questions? A critical review of twenty-five years. W: D. E. Meyer, S. Kornblum (red.), Attention and performance. XIV. Cambridge, MA: MIT Press. Allport, A. (1996). Core lectures on cognitive psychology. H andouts. Oxford University. Allport, A. (2000). Task switching and the measurement of „switch costs”. Psychological Research, 63, 212-233. Allport, A., Antonis, B., Reynolds, P. (1972). On the division of attention: A disproof of the single channel hypothesis. Quarterly Journal of Experimental Psychology, 24, 225-235. Allport, A., Styles, E., Hiesh, S. (1994). Shifting intentional set: Exploring the dynamic control of tasks. W: C. Umilta, M. Moscovitch (red.), Attention and PerformanceXV: Conscious and nonconscious information processing (s, 421-452), Cambridge, MA: MIT Press. Allport, A., Tipper, S. P., Chmiel, N. R. J. (1985). Perceptual integration and postcategorical filtering. W: M. I. Posner, O. S. M. Marin (red.), Attention and perfor mance. XL New Jersey: LEA. Allport, A., Wylie, G. (2000). Task switching, stimulus-response bindings, and negative priming. W: S. Monsell, J. S. Driver (red.), Control of cognitive processes. Attention and Performance XVII (s. 377-399). Cambridge, MA: MIT Press. Anderson, B. F. (1975), Cognitive psychology. New York: Academic Press. Anderson, J. R. (1976). Language, memory, and thought. Hillsdale, NJ: Erlbaum. Anderson, J. R. (1978). Arguments concerning representation of mental imagery. Psy chological Review, 85, 249-277. Anderson, J. R. (red.). (1981a). Cognitive skills and their acquisition. Hillsdale, NJ: Erl baum.
664
Bibliografia
Anderson, J. R. (1981b). Interference: The relationship between response latency and response accuracy. Journal of Experimental Psychology: Human Learning and Memory, 7, 326-343. Anderson, J. R. (1982). Acquisition of cognitive skill. Psychological R eview , 89, 369^106. Anderson, J. R. (1983a). The architecture of cognition. Cambridge, MA: Harvard University Press. Anderson, J. R. (1983b). A spreading activation theory of memory. Journal of Verbal Learning and Verbal Behavior, 22, 261-295. Anderson, J. R. (1985). Cognitive psychology and its implications. New York: Freeman. Anderson, J. R. (1987). Skill acquisition: Compilation of weak-method problem solutions. Psychological R e v ie w , 94, 192-210. Anderson, J. R. (1991). The adaptive nature of human categorization. Psychological R e v ie w , 98, 409-429. Anderson, J. R. (1993). Rules of the mind. Hillsdale, NJ: Erlbaum. Anderson, J. R. (1995). Cognitive psychology. New York: Freeman. Anderson, J. R. (1996). ACT. A simple theory of Complex Cognition. American Psycho logist, 51, 355-365. Anderson, J. R. (1997). Cognitive psychology and its implications. New York: W. H. Frejman and Company. Anderson, J. R., Bower, G. H. (1973). Human associative memory. Washington, DC: W inston and Sons. Anderson, J. R., Lebiere, Ch. (1998). The atomic components of thought. Mahwah, NJ: Lawrence Erlbaum Associates, Publishers. Anderson, J. R., Kline, P. J., Beasley, C. M. (1979). A general learning theory and its application to schema abstraction. W: G. H. Bower (red.), The Psychology of Learning and M otivation, New York: Academic Press. Anderson, J. R., Matessa, M., Douglass, S. (1995). The ACT-R theory of visual attention. Proceedings of the Seventeenth Annual Cognitive Science Society, 61-65. Anderson, J. R., Reder, L. M., Lebiere, Ch. (1996). Working memory: Activation limi tations on retrieval. Cognitive Psychology, 30, 221-256. Anderson, M. C., Bjork, R. A., Bjork, E. L. (1994). Remembering can cause forgetting: retrieval dynamics in long-term memory. Journal of Experimental Psychology: Learning, Memory, and Cognition, 20, 1063-1087. Anderson, M. C., Spellman, B. A. (1995). On the status of inhibitory mechanisms in cognition: memory retrieval as a model case. Psychological Review, 102, 68-100. Anderson, R. C., Pichert, J. W. (1978). Recall of previously unrecallable information following a shift in perspective. Journal of Verbal Learning and Verbal Behavior, 17, 1- 12 . Anglin, J. M. (1977). Word, object and conceptual development. New York: Norton. Anzai, Y., Simon, H. A. (1979). The theory of learning by doing. Psychological Review, 86, 124-140. Appelbaum, I. (1998). Modularity. W: W. Bechtel, G. Graham (red.), A companion to cognitive science (s. 625-635). Oxford, UK: Blackwell Publishers. Arbuthnott, K., Frank, J. (2000). Executive control in set switching. Residual switch cost and task set inhibition. Canadian Journal of Experimental Psychology, 54, 33-41. Arbuthnott, K., Woodward, T. (2002). The influence of cue-task association and location on switch cost and alternating-switch cost. Canadian Journal of Experimental Psychology, 56, 1196-1961. Armstrong, S., Gleitman, L., Gleitman, H. (1983). What some concepts might not be. Cognition, 13, 263-308. Atkinson, R. C., Shiffrin, R. M. (1968). Human memory: A proposed system and its control processes. W: K. W. Spence, J. T. Spence (red.), The psychology of learning
Bibliografia
665
and m otivation: Advances in research and theory (t. 2, s. 89-195). New York: Academic Press. Atkinson, R. C., Shiffrin, R. M. (1971). The control of short-term memory. Scientific American, 225, 82-90. Attneave, F. (1959). Application of information theory to psychology: a summary of basic concepts, methods, and results. Oxford, England: Holt. Atwood, M. E., Masson, M. E., Poison, P. G. (1980). Further explorations with a process model for water jug problems. Memory and Cognition, 8, 182-192. Atwood, M. E., Poison, P. G. (1976). A process model for water jug problems. Cognitive Psychology, 8, 191-216. Au, T. K. (1983). Chinese and English counterfactuals: The Sapir-Whorf hypothesis revisited. Cognition, 15, 155-187. Averbach, E., Coriell, A. S. (1961). Short-term memory in vision. Bell System Technical Journal, 40, 309-328. Baars, B. J. (1997). Some essential difference between consciousness and attention, perception, and working memory. Consciousness and Cognition, 6, 363-371. Bacon, A. M., Handley, S. J., Newstead, S. E. (2003). Individual differences in strategies in syllogistic reasoning. Thinking and Reasoning, 9, 133-169. Baddeley, A. D. (1966). Short-term memory for words sequences as function of acoustic, semantic, and formal similarity. Quarterly Journal of Experimental Psychology, 18,
362-365. Baddeley, A. D. (1976). The psychology of memory. New York: Basic Books. Baddeley, A. D. (1982). Domains of recollection. Psychological Review, 89, 708-729. Baddley, A. D. (1986). Working memory. Oxford, UK: Claredon Press. Baddeley, A. D. (1990) Human memory: theory and practice. Needham Heights, MA: Allyn & Bacon. Baddeley, A. D. (1993). Working memory or working attention? W: A. Baddeley, L. Weiskrantz (red.), Attention: selection, awareness, and control. A tribute to Donald Broadbent (s. 152-170). Oxford: Clarendon Press. Baddeley, A. D. (1996). Exploring the central executive. Quarterly Journal of Experimental Psychology. A Human Experimental Psychology, 49, 5-28. Baddeley, A. D. (1998). Pamięć: Poradnik użytkownika (przeł. E. Kołodziej-Józefowicz). Warszawa: Prószyński i S-ka. Baddeley, A. D. (2000). The episodic buffer: A new component of working memory? Trends in Cognitive Sciences, 4, 417^4-23. Baddeley, A. D. (2001). Is working memory still working? American Psychologist, November, 851-864. Baddeley, A. D. (2002). Is Working Memory still working? European Psychologist, 7,
85-97. Baddeley, A. D., Bressi, S., Della Sala, S., Logie, R. H., Spinnler, H. (1991). The decline of working in Alzheimer disease: A longitudinal study. Brain, 114, 2521-2542.
Baddeley, A. D., Colquhoun, W. P. (1969). Signal probability and vigilance: A reappraisal of the ‘signal-rate’ effect. British Journal of Psychology, 60, 169-178.
Baddeley, A. D . , Della Sala, S. (1998). Working memory and executive control. W: A. C. Roberts, T. W. Robbins, L. Weiskrantz (red.), The prefrontal cortex: Executive and cognitive functions (s. 9-21). New York, NY, US: Oxford University Press. Baddeley, A. D., Della Sala, S., Papagno, C., Spinnler, H. (1997). Dual task performance in dysexecutive and nondysexecutive patients with a frontal lesion. Neuropsycho logy, 11, 187-194. Baddley, A. D., Emske, H., Kolodny, J., Duncan, J. (1998). Random generation and the executive control of working memory. The Quarterly Journal of Experimental Psychology, 51A(4), 819-852.
666
Bibliografia
Baddeley, A. D., Gathercole, S., Papagno, C. (1998). The phonological loop as a language learning device. Psychological R e v ie w , 105, 158-173. Baddeley, A. D., Hitch, G. (1974). Working memory. W: G. A. Bower (red.), The psychology of learning and m otivation. (t. 8, s. 47-89). Academic Press: New York, Baddeley, A. D., Lewis, V. J. (1981). Inner active process in reading: The inner voice, the inner ear and the inner eye. W: A. M. Lesgold, C. A. Perfetti (red.), Interactive process of reading. Hillsdale, NJ.: LEA. Baddeley, A. D., Lewis, V. J., Eldridge M., Thompson, N. (1984). Attention and retrieval from long-term memory. Journal of Experimental Psychology: General, 115, 518— -540. Baddeley, A. D., Logie, R. H. (1999). Working memory: The multiple-component model. W: A. Miyake, P. Shah (red.), Models of working memory: Mechanisms of active m aintenance and executive control. New York, NY, US: Cambridge University Press. Baddeley, A. D., Thomson, N., Buchanan, M. (1975). Word length and the structure of short-term memory. Journal of Verbal Learning and Verbal Behavior, 14, 575-589. Baddeley, A. D., Warrington, E. K. (1970). Amnesia and the distinction between longand short-term memory. Journal of Verbal Learning and Verbal Behavior, 9, 176— 189. Bahrick, H. P. (1984). Semantic memory content in permastore: Fifty years of memory for Spanish learned in school. Journal of Experimental Psychology: General, 113, 1-29. Bahrick, H. P., Bahrick, L. E., Bahrick, A. S. (1993). Maintenance of foreign language vocabulary and the spacing effect. Psychological Science, 4, 316-321. Baker, C. H. (1959). Towards a theory of vigilance. Canadian Journal of Psychology, 13(1), 35-42. Baker, C. H. (1963). Signal duration as a factor in vigilance task. Science, 141, 1296-1297. Baker, S. C., Rogers, R. D., Owen, A. M., Frith, C. D., Dolan, R. J., Frąckowiak, R. S., Robbins T. W. (1996). Neural systems engaged by planning: a PET study of the Tower of London task. Neuropsychologia, 34, 515-26. Balas, R., Stettner, Z., Piotrowski, K. (2005). Ognisko uwagi w pamięci roboczej a efekt pozycji. Studia Psychologiczne, 43, 85-89. Balas, R., Żyła, K. (2002). Metody badania uczenia i pamięci mimowolnej, czyli próby dotarcia do nieświadomości. W: R. K. Ohme, M. Jarymowicz (red.), Natura autom atyzm ów . Warszawa: Wyd. IP PAN. Ballard, P. B. (1913). Obliviscence and reminiscence. British Journal of Psychology, Monogr. Suppl., 1, nr 2. Ballstaedt, S.-P., Mandl, H. (1984). Elaborations: Assessment and analysis. W: H. Mandl, N. L. Stein, T. Trabasso (red.), Learning and comprehension of text (s. 331-353). Hillsdale: Lawrence Erlbaum Associates. Balota, D. A., Cortese, M. J., Duchek, J. M., Adams, D., Roediger, H. L., Mcdermott, K. B., Yerys, B. E. (1999). Veridical and false memories in healthy older adults and in dementia of the Alzheimer’s type. Cognitive Neuropsychology, 16, 361-385. Bargh, J. A. (1994). The four horsemen of automaticity: Awarness, intention, efficiency, and control in social cognition. W; R. S. Wyer, Jr., T. K. Srull (red.), Handbook of social cognition (t. 2, s. 1-40). Hillsdale, NJ: Erlbaum. Bargh, J. A. (1999). Automatyzmy dnia powszedniego. Czasopismo Psychologiczne, 5, 209-256. Bargh, J. A., Chartrand, T. L. (1999). The unbearable automaticy of being. American Psychologist, July, 467-479. Barlow, H. B. (1953). Action potentials from the frog’s retina. Journal of Physiology, 119, 58-88. Barnett, S. M., Ceci, S. J. (2005). The role of transferable knowledge in intelligence. W: R. J. Sternberg, J. E. Pretz (red.), Cognition and intelligence: Identifying the
Bibliografia
667
mechanisms of the mind (s. 208-224). New York, NY, US: Cambridge University Press. Baron, J. (2000). Thinking and deciding. New York, NY: Cambridge University Press. Barrouillet, P. (1996). Transitive inferences from set-inclusion relations and working memory. Journal of Experimental Psychology: Learning, Memory, and Cognition, 22, 1408-1422. Barrouillet, P., Lecas, J. (1999). Mental model in conditional reasoning and working memory. Thinking and Reasoning, 5, 289-302. Bartlett, F. (1932). Remembering: A study in experimental and social psychology. Cambridge: Cambridge University Press. Barsalou, L. W. (1988). The content and organization of autobiographical memories. W: U. Neisser, E. Winograd (red.), Remebering reconsidered: Ecological and traditional approaches to the study of memory (s. 193-243). Cambridge: Cambridge University Press. Bassok, M. (2003). Analogical transfer in problem solving. W: J. E. Davidson, R. J. Sternberg (red.), Psychology of problem solving (s. 343-369). New York, US: Cambridge University Press. Bastik, (1982). Induction. How we think and act. Chichester: Wiley. Bauer, B., Joliceour, P. (1996). Stimulus dimensionality effects in mental rotation. Journal of Experimental Psychology: Human Perception and Performance, 22, 82-94. Beach, C. M. (1991). The interpretation of prosodic patterns at points of syntactic structural ambiguity: Evidence for cue trading relations. Journal of Memory and Language, 30, 644-663. Bechtel, W., Abrahamsen, A., Graham, G. (1998). The life of cognitive science. W: W. Bechtel, G. Graham (red.), A companion to cognitive science (s. 1-104). Oxford, UK: Blackwell Publishers. Begg, I., Denny, J. (1969). Empirical reconciliation of atmosphere and conversion inter pretations of syllogistic reasoning. Journal of Experimental Psychology, 81, 351-354. Bellezza, F. S. (1984). Reliability of retrieval from semantic memory: Noun meanings. Bulletin of the Psychonomic Society, 22, 377-380. Benson, D. F., Greenberg, J. P. (1969). Visual form agnosia: A specific defect in visual discrimination. Archives of Neurology, 20, 82-89. Berardi-Coletta, B., Buyer, L. S., Dominowski, R. L., Rellinger, E. R. (1995). Meta cognition and problem solving: A process-oriented approach. Journal of Experi mental Psychology: Learning, Memory, and Cognition, 21, 205-223. Bergen, J. R., Julesz, B. (1983). Parallel versus serial processing in rapid pattern discri mination. Nature, 303, 696-698. Berlin, B. (1978). Ethnobiological classification. W: E. H. Rosch, B. B. Lloyd (red.), Cognition and categorization. Hillsdale, NJ: LEA. Berlin, B., Kay, P. (1969). Basic color terms: Their universality and evolution. Berkeley, CA: University of California Press. Berlyne, D. E. (1969). Struktura i kierunek myslenia (tlum. J. Radzicki). Warszawa: PWN. Bernbach, H. A. (1975). Rate of presentation in free recall: A problem for two-stage memory theories. Journal of Experimental Psychology: Human Learning and Memory, 1, 18-22. Bernstein, I. H. (1970). Can we see and hear at the same time? Some resent studies of intersensory facilitation of reaction time. W: A. F. Sanders (red.). Attention and performance (t. III). Amsterdam: North-Holland Publishing Company. Bernstein, I. H. (1971). Effects on some variations in auditory input upon visual choice reaction time. Journal of Experimental Psychology, 87, 241-247.
668
Bibliografia
Bernstein, I. H., Clark, M. H., Edelstein, B. A. (1969). Effects of an auditory signal on visual reaction time. Journal of Experimental Psychology, 80, 567-569. Bernstein, I. H., Edelstein, B. A. (1971). Effects of some variations in auditory input upon visual choice reaction time. Journal of Experimental Psychology, 87, 241-247. Berridge, (1996). Introduction. W: A. Konnerth, R. Y. Tsien, M. Mikoshiba, J. Altman (red.), Coincidence detection in the nervous system . Strasbourg: HFSP. Berry, D. C. (1996). How implicit is implicit learning? W: G. Underwood (red.), Implicit cognition. Oxford: Oxford University Press. Berry, D. C., Broadbent, D. E. (1984). On the relationship between task performance and associated verbalizable knowledge. Quarterly Journal of Experimental Psychology: H uman Experimental Psychology, 36A, 209-231. Berry, D. C., Dienes, Z. (1993). Implicit learning: Theoretical and empirical issues. Hillsdale, NJ, England: Lawrence Erlbaum Associates. Białystok, E. (2001). Bilingualism in development: Language, literacy, and cognition. Cambridge, England: Cambridge University Press. Biederman, I. (1987). Recognition by components. Psychological Review, 94, 173-211. Biederman, I., Beiring, E., Blickle, T. (1985). A comparison of the perception of partial vs. degraded objects. Unpublished Manuscript, State University of New York at Buffalo. Biederman, I., Ju, G., Clapper, J. (1985). The perception of partial objects. Unpublished manuscript, State University of New York at Buffalo. Biela, A. (1981). Psychologiczne podstawy wnioskowania przez analogię. Warszawa: PWN. Bienicewicz-Krasek, D. (2003). Zwiaczek między efektywnościai niezamierzonego uczenia się a poziomem zdolności intelektualnych (niepublikowana praca magisterska). Warszawa: Szkoła Wyższa Psychologii Społecznej. Binford, J. R., Loeb, M. (1966). Changes within and over repeated sessions in criterion and effective sensitivity in an auditory vigilance task. Journal of Experimental Psychology, 72, 339-345. Birkhoff, G., MacLane, S. (1953). A survey of modern algebra. New York: Macmillan. Bjork, R. A., Whitten, W. B. (1974). Recency-sensitive retrieval processes in long-term free recall. Cognitive Psychology, 6, 173-189. Blanchette, I., Dunbar, K. (2002). Representational change and analogy: How analogical inferences alter target representations. Journal of Experimental Psychology: Learning, Memory, and Cognition, 28, 672-685. Blatt, S. J., Stein, M. (1960). Efficiency of problem solving. Journal of Psychology, 48, 193-213. Bloom, A. H. (1981). The linguistic shaping of thought: A study of the impact of language on thinking in China and the W est. Hillsdale, NJ: Erlbaum. Bloom, L. (1991). Representation and expression. W: N. A. Krasnegor, D. M. Rumbaugh, R. L. Schiefelbusch; M. Studdert-Kennedy (red.), Biological and behavioral deter minants of language development (s. 117-140). Hillsdale, NJ, England: Lawrence Erlbaum Associates. Bloom, B, S., Broder, L. J. (1950). Problem-solving processes of college students. Supplementary Educational Monographs, B, 109. Bloom, P., Markson, L. (1998). Capacities underlying word learning. Trends in Cognitive Sciences, 2, 67-73. Bloomfield, L. (1933). Language, New York: Holt. Boden, M. A. (1999). Computer models of creativity. W: R. J. Sternberg (red.), Handbook of creativity (s. 351-372). New York, NY, US: Cambridge University Press. Bolte, A., Goschke, T., Kuhl, J. (2003). Emotion and intuition. Psychological Science, 14, 416-421. Bonatti, L. (1994). Propositional Reasoning by Model? Psychological Review, 101, 725-733. Bousfield, W. A. (1953). The occurrence of clustering in the recall of randomly arranged associates. Journal of General Psychology, 49, 229-240.
Bibliografia
669
Bousfield, W. A., Cohen, B. G., Whitmarch, G. A., Kincaid W. D. (1961). Connecticut free association norms (Technical Report nr 35), Storrs, CT: University of Connecticut.
Bower, G. H. (1981). Mood and memory. American Psychologist, 36, 129-148. Bower, G. H., Black, J. B., Tuner, T. F. (1979). Scripts in memory for text. Cognitive Psychology, 11, 177-220.
Bower, G. H., Clark, M. C., Lesgold, A. M., Winzenz, D. (1969). Hierarchical retrieval schemes in recall of categorized word lists. Journal of Verbal Learning and Verbal Behavior, 8, 323-343. Bower, G. H., Springston, F. (1970). Pauses as recoding points in letter series. Journal of Experimental Psychology, 83, 421-430. Bowers, K. S., Regehr, G., Balthazard, C., Parker, K. (1990). Intuition in the context of discovery. Cognitive Psychology, 22, 72-110. Braine, M. D. S. (1978). On the relation between the natural logic of reasoning and standard logic. Psychological review, 85, 1-21. Braine, M. D. S., O ’Brien, D. P. (1991). A theory of if: A lexical entry, reasoning program, and pragmatic principles. Psychological R ev ie w , 98, 182-203. Braine, M. D. S., Reiser, B. J., Rumain, B. (1984). Some empirical justification for a theory of natural propositional logic. W: G. H. Bower (red.), The psychology of learning and m otivation. New York: Academic Press. Braine, M. D. S., Rumain, B. (1983). Logical reasoning. W: J. H. Flavell, E. M. Markman (red.), Handbook of child psychology. Cognitive development (t. 3). New York: J. Wiley. Bransford, J. D., Barclay, J. R., Franks, J. J. (1972). Sentence memory: A constructive versus interpretive approach. Cognitive Psychology, 3, 193-209. Bransford, J. D., Franks, J. J. (1971). The abstraction of linguistic ideas. Cognitive Psychology, 2, 331-350. Bransford, J. D., Johnson, M. K. (1972). Contextual prerequisites for understanding. Some investigations of comprehension and recall. Journal of Verbal Learning and Verbal Behavior, 11, 717-726. Brandsford, J. D., Stein, B. S. (1993). The ideal problem solver: A guide for improving thinking learning and creativity. New York: Freeman. Brebner, J. (1977). The search for exceptions to the psychological refractory period. W: S. Dornic (red.), Attention and performance (t. 6). Hilsdalle, NJ: Lawrence Erlbaum. Bretherton, I., Beeghly, M. (1982). Thinking about internal states: The acquisition of an explicit theory of mind. Developmental Psychology, 18, 906-921. Brewer, W. F. (1986). What is autobiographical memory? W: D. C. Rubin (red.), Auto biographical memory (s. 25-49). New York, NY, US: Cambridge University Press. Briggs, G. E. (1957). Retroactive inhibition as a function of the degree of original and interpolated learning. Journal of Experimental Psychology, 53, 60-67. Broadbent, D. E. (1952). Listening to one of two synchronous messages. Journal of Experimental Psychology, 44, 51-56. Broadbent, D. E. (1954). The role of auditory localization in attention and memory span. Journal of Experimental Psychology, 47, 191-196. Broadbent, D. E. (1957). A mechanical model for human attention and immediate memory. Psychological Review, 64, 205-215. Broadbent, D. E. (1958). Perception and communication. New York: Pergamon Press. Broadbent, D. E. (1971). Decision and stress. London: Academic Press. Broadbent, D. E. (1982). Task combination and selective intake of information. Acta Psychologica, 50, 253-290. Broadbent, D. E., Broadbent, M., Jones, J. L. (1989). Time of day as an instrument for the analysis of attention. European Journal of Cognitive Psychology, 1, 69-94. Broadbent, D. E., Gregory, M. (1964). Stimulus set and response set: The alternation of attention. Quarterly Journal of Experimental Psychology, 16, 309-317.
670
Bibliografia
Brooks, L. (1978). Nonanalytic concept formation and memory for instances. W: E. Rosch, B. B. Lloyd (red.), Cognition and categorization (s. 169-215). Hillsdale, NJ: Erlbaum. Brooks, L. R., Vokey, J. R. (1991). Abstract analogies and abstracted grammars: com ments on Reber (1989) and Mathews et al. (1989). Journal of Experimental Psychology: General, 120, 316-323. Brophy, D. R. (1998). Understanding, measuring, and enhancing individual creative problem-solving efforts. Creativity Research Journal, 11, 123-150. Brown, J. (1958). Some tests of the decay theory of immediate memory. Quarterly Journal of Experimental Psychology, 10, 12-21. Bruce, V., Valentine, T. (1985). What’s up? The Margaret Thatcher illusion revisited. Perception, 14, 515-516. Bruner, J. S. (1957). On perceptual readiness. Psychological Review, 64, 123-152. Bruner, J. S. (1978). Poza dostarczone informacje (przel. B. Mrozik). Warszawa: PWN. Bruner, J. S., Goodman, C. C. (1947). Value and need as organizing factors in perception. Journal of Abnormal and Social Psychology, 42, 33^14. Bruner, J. S., Goodnow, J. J., Austin, G. A. (1956). A study of thinking. New York: Wiley. Bruner, J. S., Postman, L. (1947). Emotional selectivity in perception and reaction. Journal of Personality, 16, 69-77. Buckner, R. L., Petersen, S. E. (1998). Neuroimaging. W: W. Bechtel, G. Graham (red.), A companion to cognitive science (s. 413-424). Oxford, UK: Blackwell Publishers. Bugelski, B. R., Alampay, D. A. (1961): The role of frequency in developing perceptual sets. Canadian Journal of Psychology, 15, 201-211. Buss, D. M. (1999). Evolutionary psychology: The new science of the mind. Boston, MA: Allyn and Bacon. Buzan, T., Buzan, B. (1996). The mind map book: how to use radiant thinking to maximize your brain's untapped potential. New York: Plume Books. Byrne, M. D., Bovair, S. (1997). A working memory model of a common procedural error. Cognitive Science, 21, 31-61. Byrne, R. M. J. (1989a). Suppressing valid inferences with conditionals. Cognition, 5 1 ,61-83. Byrne, R. M. J. (1989b). Everyday reasoning with conditional sequences. Quarterly Journal of Experimental Psychology, 41 A, 141-166. Byrne, R. M. J., Johnson-Laird, P. N. (1989). Spatial reasoning. Journal of Memory and Learning, 28, 564-575. Campbell, A. (2004). Jej niezalezny umysl. Psychologia ewolucyjna kobiet (przel. J. Kantor-Martynuska). Krakow: Wyd. Literackie. Campbell, J. I. D. (1994). Architectures for numerical cognition. Cognition, 53, 1^44. Campbell, J. I. D., Clark, J. M. (1988). An encoding-complex view of cognitive number processing: Comment on McCloskey, Sokol, and Goodman (1986). Journal of Experimental Psychology: General, 117, 204-214. Cantor, N., Harlow, R. E. (1994). Social intelligence and personality: Flexible life task pursuit. W: R. J. Sternberg, P. Ruzgis (red.), Personality and intelligence (s. 137— -1 6 8 ). New York, NY, US: Cambridge University Press. Carlson, R. A., Khoo, B. H., Yaure, R. G. (1990). Acquisition of a problem-solving skill: Levels of organization and use of working memory. Journal of Experimental Psy chology: General, 119, 193-214. Carmody, D. P., Nodine, C. F., Kundel, H. L. (1980). An analysis of perceptual and cognitive factors in radiographic interpretation. Perception, 9, 339-344. Carraher, T. N., Carraher, D., Schliemann (1985). Mathematics in the streets and in the schools. British Journal of Developmental Psychology, 3, 21-29. Cary, M., Carlson, R. A. (1999). External support and the development of problem-solving routines. Journal of Experimental Psychology : Learning, Memory, and Cognition, 25, 1053-1070.
Bibliografia
671
Cary, M., Carlson, R. A. (2001). Distributing working memory resources during problem solving. Journal of Experimental Psychology: Learning, Memory, and Cognition, 27, 836-848. Case, R. (1992). Neo-Piagetian theories of child developments. W: R. J. Sternberg, C. A. Berg (red.), Intellectual development (s. 161-196). New York: Cambridge University Press. Cattell, R. B., Tiner, L. G. ( 1949). The varieties of structural rigidity. Journal of Per sonality, 17, 321-341. Cave, K. R., Wolfe, J. M. (1990). Modelling the role of parallel processing in visual search. Cognitive Psychology, 22, 225-271. Ceci, S. J. (1990). A sideway glance at this thing called LD: A context X process X person framework. W: H. L. Swanson, B. K. Keogh (red.), Learning disabilities: Theoretical and research issues. Hillsdale, NJ, England: Lawrence Erlbaum Associates. Ceci, S. J., Ruiz, A. (1991). Cognitive complexity and generality: A case study. W: R. Hoffman (red.), The psychology of expertise. New York: Springer-Verlag. Challis, B. H., Brodbeck, D. R. (1992), Level of processing affects priming in word fragment completion. Journal of Experimental Psychology: Learning, Memory, and Cognition, 18, 595-607. Chan, C. S. (1997). Mental image and internal representation. Journal of Architectural and Planning Research, 14, 52-77. Chapman, L. J., Chapman, A. P. (1959). Atmosphere effect re-examined. Journal of Experimental Psychology, 58, 220-226. Charness, N. (1979). Components of skill in bridge. Canadian Journal of Psychology, 33,
1-16. Charness, N. (1981a). Search in chess: Age and skill differences. Journal of Experimental Psychology: Human Perception and Performance, 7, 467-476.
Charness, N. (1981b). Aging and skilled problem solving. Journal of Experimental Psychology: General, 110, 21-38.
Charniak E., McDermott, D. (1985). Introduction to artificial intelligence. Reading, MA: Addison-Wesley.
Chase, W. G., Simon, H. A. (1973a). Perception in chess. Cognitive Psychology, 4, 55-81. Chase, W. G., Simon, H. A. (1973b). The mind’s eye in chess. W: W. G. Chase (red.), Visual information processing. Oxford, England: Academic. Cheesman, J., Merikle, P. M. (1984). Priming with and without awareness. Perception and Psychophysics, 36, 387-395. Chen, Z., Mo, L. (2004). Schema induction in problem solving: A multidimensional analysis. Journal of Experimental Psychology: Learning, Memory, and Cognition, 30, 583-600. Cheng, P. W., Holyoak, K. J. (1995). Complex adaptive systems as intuitive statisticians: Causality, contingency, and prediction. W: H. L. Roitblat, J. A. Meyer (red.), Com parative approaches to cognitive science (s. 271-302). Cambridge, MA: MIT Press. Cherry, E. C. (1953). Some experiments on the recognition of Speech with one and with two ears. The Journal of the Acoustical Society of America, 25, 975-979. Chi, M. T. H., Feltovich, P. J., Glaser, R. (1981). Categorization and representation of physics problems by expert and novices. Cognitive Science, 5, 131-152. Chi, M. T. H., Glaser, R., Farr, M. J. (1988). The nature of expertise. Hillsdale, NJ, England: Lawrence Erlbaum Associates, Inc. Chi, M. T. H., Glaser, R., Rees M. J. (1982). Expertise in problem solvung. Hillsdale: Lawrence Erlbaum Associates. Chlewiński, Z. (1999). Umysł. Dynamiczna organizacja pojęć. Warszawa: Wyd. Nauk. PWN. Chomsky, N. (1959). Review of Skinner’s „Verbal Behavior”. Language, 35, 26-58. Chomsky, N. (1980). Rules and representations. New York: Columbia University Press.
672
Bibliografia
Chown, S. M. (1959). Rigidity: A flexible concept. Psychological Bulletin, 56, 195-223, Christensen-Szalanski, J. J. (1978). Problem solving strategies: A selection mechanism, some implications, and some data. Organizational Behavior & Human Performance, 22, 307-323. Christianson, K., Hollingworth, A., Halliwell, J., Ferreira, F. (2001). Thematic roles assigned along the garden path linger. Cognitive Psychology, 42, 368-407. Chuderski, A. Orzechowski J. (2005). Mechanizm dwufazowego przeszukiwania pamięci roboczej: model obliczeniowy. Studia Psychologiczne, 45(1), 37-50. Chun, M. M., Wolfe, J. M. (1996). Just say no: How are visual searches terminated when there is no target present? Cognitive Psychology, 50, 39-40. Chun, M. M., Wolfe, J. M. (2001). Visual attention. W: E. Goldstein, M. Bruce (red.), Blackzvell handbook of perception (s. 272-310). MA, US: Blackwell Publishers. Churchland, P. S. (1986). Neurophilosophy. Cambridge, MA: MIT Press. Clark, E. V. (1979). The ontogenesis of mind. Weisbaden: Akademische Verlagsgesellschaft Athenaion. Clark, H. H. (1969). Linguistic processes in deductive reasoning. Psychological Review, 76, 387-404. Clark, H. H, Chase, W. G. (1972). On the process of comparing sentences against pictures. Cognitive Psychology, 3, 472-517. Clark, J. M., Campbell, J. I. (1991). Integrated versus modular theories of number skills and acalculia. Brain and Cognition, 17, 204-239. Wydanie specjalne: Cognitive and neuropsychological aspects of calculation disorders. Cleeremans, A. (1993). Mechanisms of implicit learning: Connectionist models of sequence processing. Cambridge, MA, US: The MIT Press. Cleeremans, A. (1997a). Principles for implicit learning. W: D. C. Berry (red.), How implicit is implicit learning? (s. 195-234). London, UK: Oxford University Press. Cleeremans, A. (1997b). Sequence learning in a dual-stimulus setting. Psychological Research, 60, 72-86. Cohen, G., Kiss, G., LeVoi, M. (1993). Memory. Current issues. Buckingham: Open University Press. Cohen, N. J., Squire, L. R. (1980). Preserved learning and retention of pattern-analyzing skill in amnesia: Dissociation of knowing how and knowing that. Science, 210, 207-210. Cole, M., Gay, J., Glick, J., Sharp, D. W. (1971). The cultural context of learning and thinking. New York: Basic Books. Collette, F., van der Linden, M. (2002). Brain imaging of the central executive component of working memory. Neuroscience and Biobehavioral Reviews, 26(2), 105-125. Collette F., van der Linden, M., Delrue, G. (2002). Frontal hypometabolism does not explain inhibitory dysfunction in Alzheimer disease. Alzheimer Disease and Associated Disorders, 16(4), 228-238. Collins, A. M., Loftus, E. F. (1975). A spreading activation theory for semantic processing. Psychological Review, 82, 407-429. Collins, A. M., Quillian, M. R. (1969). Retrieval time from semantic memory. Journal of Verbal Learning and Verbal Behavior, 8, 240-247. Collins, A. M., Quillian, M. R. (1972). Experiment on semantic memory and language comprehension. W: L. W. Gregg (red.), Cognition in Learning and Memory. New York: Wiley. Colquhuon, W. P., Baddeley, A. D. (1964). The role of pre-test expectancy in vigilance decrement. Journal of Experimental Psychology, 68, 156-160. Colquhuon, W. P., Baddeley, A. D. (1967). Influence of signal probability during pre training on vigilance decrement. Journal of Experimental Psychology, 73, 153-155. Conrad, C. (1972). Cognitive economy in semantic memory. Journal of Experimental Psychology, 92, 148-154.
Bibliografia
673
Conrad, R. (1963). Acoustic confusions and memory span for words. Nature, 197, 1029-1030.
Conrad, R. (1971). The effect of vocalizing on comprehension in the profoundly deaf. British Journal of Psychology, 62, 147-150.
Conrad, R., Hull, A. J. (1964). Information, acoustic confusion and memory span. British Journal of Psychology, 55, 429-432.
Conway, A. R. A., Cowan, N., Bunting, M. F., Therriault, D. J., Minkoff, S. R. B. (2002). A latent variable analysis of working memory capacity, short-term memory capacity, processing speed, and general fluid intelligence. Intelligence, 30, 163-184. Conway, M. A. (1996a). Autobiographical knowledge and autobiographical memories. W: D. C. Rubin (red.), Remembering our past. Studies in autobiographical memory (s. 67-93). Cambridge: Cambridge University Press. Conway, M. A. (1996b). Autobiographical memory. W: E. L. Bjork, R. A. Bjork (red.), Memory (s. 165-194). San Diego: Academic Press. Conway, M. A. (2000). Repressed memory. W: A. E. Kazdin (red.), Encyclopedia of psy chology (t. VII, s. 66-69). Washington, DC, US: American Psychological A ssocia tion. Cook, V. J. (1997). The consequences of bilingualism for cognitive processing. W: A. M. B. de Groot, J. F. Kroll (red.) Tutorials in Bilingualism (s. 279-300). Mahwah NJ: Erlbaum. Cooper, L. A., Shepard, R. N. (1973). Chronometric studies of the rotation of mental image. W: W. G. Chase (red.), Visual Information Processing. Academic Press, London and New York. Corballis, M. C., Zbrodoff, N. J., Shetzer, L. I., Butler, P. B. (1978). Decision about identity and orientation of rotated letters and digits. Memory and Cognition, 6, 9 8 -107. Corcoran, D. W. J. (1965). Personality and the inverted-U relation. British Journal of Psychology, 56, 267-273. Cornoldi, C., de Beni, R. (1991). Memory for discourse: Loci mnemonics and the oral presentation effect. Applied Cognitive Psychology, 5, 511-518. Cornoldi, C., Paivio, A. (1982). Imagery value and its effects on verbal memory: A review. Archivio de Psicologia Neurologia e Psichiatria, 2, 171-192. Corteen, R. S., Dunn, D. (1974). Shock-associated words in nonattended message: a test for momentary awareness. Journal of Experimental Psychology, 102, 1143-1144. Corteen, R. S., Wood, B. (1972). Autonomic responses to shock-associated words in an unattended channel. Journal of Experimental Psychology, 94, 308-313. Cosmides, L. (1989). The logic of social exchange: Has natural selection shaped how humans reason? Studies with the Wason selection task. Cognition, 31, 187-276. Cosmides, L., Tooby, J. (1992). Cognitive adaptation of social exchange. W: J. H. Barkow, L. Cosmides (red.), Adapted mind: Evolutionary psychology and the generation of culture. London: Oxford University Press. Cosmides, L., Tooby, J. (1994). Origins of domain specificity: The evolution of functional organization. W: L. A. Hirschfeld, S. A. Gelman (red.), Mapping the mind: Domain specificity in cognition and culture (s. 85-116). New York. Cambridge University Press. Cosmides, L., Tooby, J. (1996). Are humans good intuitive statisticians after all? Rethinking some conclusions from the literature on judgment under uncertainty. Cognition, 58, 1-73. Cowan, N. (1984). On short and long auditory stores. Psychological Bulletin, 96, 341-370. Cowan, N. (1993). Activation, attention, and short-term memory. Memory and Cognition, 21, 162-167. Cowan, N. (1995). Attention and memory: an integrated framework. Oxford: Oxford University Press.
674
Bibliografia
Cowan, N. (1999). An embedded-processes model of working memory. W: A. Miyake, P. Shah (red.), Models of working memory: mechanisms of active maintenance and executive control (s. 62-101). Cambridge: Cambridge University Press. Cowan, N. (2001). The magical number 4 in short-term memory: A reconsideration of mental storage capacity. Behavioral and Brain Sciences, 24, 87-185. Craig, A. (1980). Effect of prior knowledge of signal probabilities in vigilance performance at two-signal task. Human Factors, 22, 361-371. Craig, A., Colquhuon, W. P. (1975). Vigilance: A review. W: C. G. Dury, J. G. Fox (red.), Human reliability in quality control. London: Taylor & Francis. Craik, F. I. M., Lockhart, R. S. (1972). Levels of processing: A framework for memory research. Journal of Verbal Learning and Verbal Behavior, 11, 671-684. Craik, F. I. M., Tulving, E. (1975). Depth of processing and the retention of words in episodic memory. Journal of Experimental Psychology: General, 104, 268-294. Craik, F. I. M., Watkins, M. J. (1973). The role of rehearsal in short-term memory. Journal of Verbal Learning and Verbal Behavior, 12, 599-607. Crowder, R .G., Morton, J. (1969). Precategorical acoustic storage (PAS). Perception and Psychophysics, 8, 815-820. Csikszentmihalyi, M. (1999). Implications of a systems perspective for the study of creativity. W: R. J. Sternberg (red.), Handbook of creativity (s. 313-335) New York, NY, US: Cambridge University Press. Csikszentmihalyi, M., Sawyer, K. (1995). Creative insight: The social dimension of a solitary moment. W: R. J. Sternberg, J. E. Davidson (red.), Nature of insight (s. 329-3 6 3 ). Cambridge, MA, US: The MIT Press. Cummins, D. D., Lubart, T., Alksnis, O., Rist, R. S. (1991). Conditional reasoning and causation. Memory and Cognition, 19, 274-282. Czerlinski, J., Gigerenzer, G., Goldstein, D. G. (1999). How good are simple heuristics? W: G. Gigerenzer, P. M. Todd, the ABC Research Group (red.), Simple heuristics that make us smart (s. 97-118 ). Oxford, UK: Oxford University Press. Czyżewska, M. (1991). Uwaga. W: Z. Roman (red.), Uwaga i pamięć (s. 22-56). Warszawa: Wyd. UW. D’Zamura, M. (1991). Color in visual search. Vision Research, 31, 951-966. Dallas, M., Merikle, P. M. (1976). Semantic processing of non-attended visual infor mation. Canadian Journal of Psychology, 30, 15-21. Damasio, A. R., Tranel, D., Damasio, H. (1991). Somatic markers and the guidance of behavior: Theory and preliminary testing. W: H. S. Levin, H. M. Eisenberg (red.), Frontal lobe function and dysfunction. London: Oxford University Press. Daneman, M., Carpenter, P. A. (1980). Individual differences in working memory and reading. Journal of Verbal Learning and Verbal Behavior, 19, 450-466. Daneman, M., Carpenter, P. A. (1983). Individual differences in integrating information between and within sentences. Journal of Experimental Psychology: Learning, Memory, and Cognition, 9, 561-584. Daniel, R. S. (1967). Alpha and Theta EEG in vigilance. Perceptual and Motor Skills, 25, 697-703. Dark, V. J., Johnston, W. A., Myles-Worsley, M., Farah, A. J. (1985). Levels of selection and capacity limits. Journal of Experimental Psychology. General, 114, 472-497. Darvin, C. J., Turvey, M. T., Crowder, R. G. (1972). The auditory analogue of the Sperling partial report procedure. Evidence for brief auditory stage. Cognitive Psychology, 3, 255-267. Davies, D. R., Krkovic, A. (1965). Skin conductance, alpha-activity, and vigilance. American Journal of Psychology, 78, 304-306. Davies, D. R, Parasuraman, R. (1982). The psychology of vigilance. London: Academic Press.
Bibliografia
675
Davies, D. R., Tune, G. S. (1969). Human vigilance performance. New York: American Elsevier.
Davies, M. (1989). Tacit knowledge and subdoxastic states. W: A. George (red.), Reflections on Chomsky (s. 131-152). Oxford: Basil Blackwell. Davidson, J. E. (2003). Insights about insightful problem solving. W: J. E. Davidson, R. J. Sternberg (red.), Psychology of problem solving (s. 149-175). New York: Cambridge University Press. Davidson, J. E., Sternberg, R. J. (1984). The role of insight in intellectual giftedness. Gifted Child Quarterly, 28, 58-64. Davidson, J. E., Sternberg, R. J, (1986). What is insight? Educational Horizons, 64, 177179. Davidson, J. E., Sternberg, R. J. (1998). Smart problem solving: How metacognition helps. W: D. J. Hacker, J. Dunlosky (red.), Metacognition in educational theory and practice (s. 47-68). Mahwah, NJ, US: Lawrence Erlbaum Associates Publishers. Davidson, P. S, R., Glisky, E. L. (2002). Is flashbulb memory a special instance of source memory? Evidence from older adults. Memory, 10, 99-111. Deese, J. (1955). Some problems in the theory of vigilance. Psychological Review, 62, 359-368. Deese, J. (1959a). Influence of inter-item associative strength upon immediate free recall. Psychological Reports, 5, 305-312. Deese, J. (1959b). On the prediction of occurrence of particular verbal intrusions in immediate recall. Journal of Experimental Psychology, 58, 17-22. Deese, J. (1960). Frequency of usage and number of words in free recall: The role of association. Psychological Reports, 7, 337-344. De Groot, A. D. (1965). Thought and choice in chess. The Hague: Mouton. De Groot, A. M. B. (1983). The range of automatic spreading activation in word priming. Journal of Verbal Learning and Verbal Behavior, 22, 4 1 7 - 436. Degel, J., Piper, D., Koster, E. P. (2001). Implicit learning and implicit memory for odors: The influence of odor identification and retention time. Chemical Senses, 26, 2 6 7 -280. De Jong, R. (2000). An intention - activation account of residual switch cost. W: S. Monsell, J. Driver (red.), Control of Cognitive Processes. Attention and Perfor mance (t. XVIII, s. 357-376). Cambridge: MIT Press. De Jong, R., Coles, M. G. H., Logan, G. D. (1995). Strategies and mechanisms in nonselective and selective inhibitory motor control. Journal of Experimental Psychology. Human Perception and Performance, 21, 498-511. De Jong, R., Coles, M. G. H., Logan, G. D., Gratton, G. (1990). In search of the point of no return: The control of response processes. Journal of Experimental Psychology. Human Perception and Performance, 16, 164-182. Dehaene, S., Akhavein, R. (1995). Attention, automaticity, and levels of representations in number processing. Journal of Experimental Psychology. Learning, Memory, and Cognition, 21, 314-326. Dehaene, S., Bossini, S., Giraux, P. (1993). The mental representation of parity and number magnitude. Journal of Experimental Psychology. General, 122, 371-396. Dell, G. S. (1986). A spreading-activation theory of retrieval in sentence production. Psychological Review, 95, 283-321. Dell, G. S. (1995). Speaking and misspeaking. W: L. R. Gleitman, M. Lieberman (red.), Language: An invitation to cognitive science (t. 1). Cambridge, MA: MIT Press. Della Sala, S., Baddeley, A. D., Papagno, C., Spinnler, H. (1995). Dual task paradigm: A means to examine the central executive. W: J. Grafman, K. J. Holyoak, F. Boiler (red.), Structure and functionsof the human prefrontal cotrex (s. 161-190). New York: Annals of the New York Academy of Science.
676
Bibliografía
Dempster, F. N., Brainerd, Ch. J. (1995). Selective attention and the inhibitory control of cognition. San Diego: Academic Press. Dempster, F. N., Corkill, A. J. (1999). Individual differences in susceptibility to interference and general cognitive ability. Acta Psychological, 101, 395-416. Dennett, D. C. (1991). Consciousness explained. Boston: Little, Brown. Deregowski, J. (1972). The role of symmetry in pattern reproduction by Zambian children. Journal of Cross-Cultural Psychology, 3, 303-307. DeRenzi, E. (1986). Current issues in prosopagnosia. W: H. D. Ellis, M. A. Jeeves, F. Newcombe, A. Young (red.), Aspects of face processing. Dordrecht: Martinus Nijhoff. Deutsch, J. A., Deutsch, D. (1963). Attention: some theoretical considerations. Psycho logical Review, 70, 80-90. Deutsch, J. A., Deutsch, D. (1967). Comments on selective attention: perception or response. Quarterly Journal of Experimental Psychology, 19, 362-363. Dickman, S., Meyer, D. E. (1988). Impulsivity and speed-accuracy tradeoffs in information processing. Journal of Personality and Social Psychology, 54, 274-290. Dodson, Ch., Reisberg, D. (1991). Indirect testing of eyewitness memory: The (non)effect of misinformation. Bulletin of the Psychonomic Society, 29, 333-336. Donders, F. C. (1868/1969). On the speed of mental processes. Acta Psychologica, 30, 412^131 (przekł. ang.; oryginalna publikacja ukazała się w 1868 r. po holendersku). Dórner, D., Kreuzig, H. W. (1983). Problemlósefahigkeit und Intelligenz. Psychologische Rundschau, 34, 185-192. Dreistadt, R. (1969), The use of analogies and incubation in obtaining insights in creative problem solving. Journal of Psychology: Interdisciplinary & Applied, 71, 159-175. Driver, J. (2001). A selective review of selective attention research from the past century. British Journal of Psychology, 92, 53-78. Driver, J., Baylis, G. C. (1989). Movement and visual attention: The spotlight metaphor breaks down. Journal of Experimental Psychology. Human Perception and Performance, 15, 448-456. Driver, J., McLeod, P. (1992). Reversing visual search asymmetries with conjunctions of movement and orientation. Journal of Experimental Psychology. Human Perception and Performance, 18, 22-33. Driver, J., Tipper, S. P. (1989). On the nonselectivity of „selective” seeing: Contrasts between Interference and priming in selective attention. Journal of Experimental Psychology. Human Perception and Performance, 15, 304-314. Duch, W. (1998). Czym jest kognitywistyka? Kognitywistyka i Media w Edukacji, 1, 9-50. Dulaney, C. L., Ellis, N. R. (1994). Automatized responding and cognitive inertia in individuals with mental retardation. American Journal on Mental Retardation, 99, 8-18. Dulany, D. E., Carlson, R. A., Dewey, G. I. (1984). A case of syntactical learning and judgment: How conscious and how abstract? Journal of Experimental Psychology: General, 113, 541-555. Dunbar, K. (1993). Concept discovery in a scientific domain. Cognitive Science, 17, 397-4 3 4 . Duncan, J. (1980). The demonstration of capacity limitation. Cognitive Psychology, 12, 75-96. Duncan, J. (1984). Selective attention and the organization of visual information. Journal of Experimental Psychology. General, 113, 501-517. Duncan, J. (1985). Visual search and visual attention. W: M. I. Posner, O. S. M. Marin, (red.), Attention and performance. XI. New Jersey: LEA. Duncan, J. (1989). Boundary conditions on parallel processing in human vision. Per ception, 18, 457-469.
Bibliografia
677
Duncan, J. (1995). Attention, intelligence and the frontal lobes. W: M. Gazzaniga (red.), The cognitive neuroscience (s. 721-734). Cambridge: MIT. Duncan, J., Humphreys, G. W. (1989). Visual search and stimulus similarity. Psycho logical Review, 96, 433-458.
Duncan, J., Owen, A. (2000). Common regions of the human frontal lobe recruited by diverse cognitive demands. Trends in Neurosciences, 23, 475-483.
Duncker, K. (1945). On problem-solving. Psychological Monographs, 58, 1-110. Dury, C. G., Fox, J. G. (1975). Human reliability in quality control. London: Tay lor & Francis. Eagly, A. H. (1994). On comparing women and men. Feminism & Psychology, 4, Special Issue: Special Feature: Should psychologists study sex differences?, 513-522. Ebbinghaus, H, (1885/1913). Memory: A contribution to experimental psychology. New York: Columbia University (przel. na j. ang. H. A. Ruger, C. E. Bussenius). Edelman, G. M. (1998). Przenikliwe powietrze, jasny ogieh (przel. J. Rqczaszek), War szawa: PIW. Eddy, D. M. (1982). Probabilistic reasoning in clinical medicine: problems and opportu nities. W: D. Kahneman, P. Slovic, A. Tversky (red.), Judgment under uncertainty: Heuristics and biases (s. 249-267). Cambridge: Cambridge University Press. Edwards, W. (1953). The theory of decision making. Psychological Bulletin, 51, 380-417. Egan, D. E., Greeno, J. G. (1974). Theory of rule induction: Knowledge acquired in concept learning, serial pattern learning, and problem solving W: L. W. Gregg (red.), Knowledge and cognition. Oxford, England: Lawrence Erlbaum. Egan, J. P., Greenberg, G. Z., Schulman, A. I. (1961). Interval of time uncertainty in auditory detection. Journal of the Acoustical America, 33, 779-781. Egeth, H., Jonides, J., Wall, S. (1972). Parallel processing of multielement display. Cognitive Psychology, 3, 674-698. Egeth, H., Virzi, R. A., Garbart, H. (1984). Searching for conjunctively defined targets. Journal of Experimental Psychology. Human Perception and Performance, 10, 32-39. Ekstrand, B. R. (1967). Effect of sleep on memory. Journal of Experimental Psychology, 75, 64-72. Ellis, H. D. (1975). Recognition faces. British Journal of Psychology, 66, 409-426. Ellis, H. D., Shepherd, J. W., Davies, G. M. (1979). Identification of familiar and un familiar faces from internal and external features: Some implication for theories of face recognition. Perception, 8 , 431-439. Ellis, N. C. Hennelly, R. A. (1980). A bi-lingual word-length effect: Implications for intelligence testing and the relative ease of mental calculation in Welsh and English. British Journal of Psychology, 71, 43-51. Elman, J. L. (1998). Connectionism, artificial life, and dynamical systems. W: W. Bechtel, G. Graham (red.), A companion to cognitive science (s. 488-505). Oxford, UK: Blackwell Publishers. Elman, J. (1999). Origins of language: A conspiracy theory. W: B. MacWhinney (red.), The emergence of language. Hillsdale, NJ: Erlbaum. Elman, J. (2001). Connectionism in language development. W: M. Tomasello, E. Bates (red.), Language development: The essential readings (s. 295-306). Malden, MA: Blackwell Publishers. Ericsson, K. A. (1985). Memory skill. Canadian Journal of Psychology, 39, 188-231. Ericsson, K, A. (1988). Analysis of memory performance in terms of memory skill. W: R. J. Sternberg (red.), Advances in the psychology of human intelligence (t. 4). Hillsdale, NJ: Lawrence Erlbaum Associates Inc. Ericsson, K. A., Chase, W. G., Faloon, S. (1980). Acquisition of a memory skill. Science, 208, 1181-1182. Ericsson, K. A., Delaney, P. F. (1999). Long-term working memory as an alternative to capacity models of working memory in everyday skilled performance. W: A. Miyake,
678
Bibliografia
P. Shah (red.), Models of working memory: Mechanisms of active maintenance and executive control New York, NY, US: Cambridge University Press. Ericsson, K. A., Kintsch, W. (1995). Long-term working memory. Psychological Review, 102, 211-245. Ericsson, K. A., Simon, H. A. (1993). Protocol analysis: Verbal reports as data. Cambridge, MA, US: The MIT Press. Eriksen, B. A., Eriksen, C. W. (1974). The importance of being first: A tachostoscopic study of the contribution of each letter to the recognition of four-letter words. Perception and Psychophysics, 15, 66-72. Eriksen, B. A, Eriksen, C. W., Hoffman, J. E. (1986). Recognition memory and attentional selection: Serial scanning is not enough. Journal of Experimental Psychology. H uman Perception and Performance, 12, 476-483. Eriksen, C. W., Coles, M. G. H., Morris, L. R., O ’Hara, W. P. (1985). An electromyo graphic examination of response competition. Bulletin of the Psychonomic Society, 25, 165-168. Eriksen, C. W., Collins, J. F. (1967). Some temporal characteristics of visual pattern perception. Journal of Experimental Psychology, 74, 476-484. Eriksen, C. W., Schultz, D. W. (1979). Information processing in visual serarch: A continuos flow conception and experimental research. Perception and Psychophysics, 25, 249-263. Eriksen, C. W., Spencer, T. (1969). Rate of information processing in visual perception: Some results and methodological considerations. Journal of Experimental Psycho logy, 79, 1-16. Evans, J. St. B. T. (1982). The psychology of deductive reasoning. London: Routledge and Kegan Paul. Evans, J. St. B. T. (1989). Bias in human reasoning. Hove, UK: Lawrence Erlbaum Associates Ltd. Evans, J. St. BT (1991). Theories of human reasoning: The fragmented state of the art. Theory and Psychology, 1, 83-105. Evans, J. St. B. T. (2002). Logic and human reasoning: An Assessment of the deduction Paradigm. Psychological Bulletin, 128, 978-996. Evans, J. St. B. T., Barston, J. I., Pollard, P. (1983). On the conflict between logic and belief in syllogistic reasoning. Memory and Cognition, 11, 295-306. Evans, J. St. B. T., Newstead, S. E., Byrne, R. M. J. (1993). Human reasoning: The psychology of deduction. Hove, UK: Lawrence Erlbaum Associates Ltd. Evans, St. J., Pollard, P. (1990). Belief bias and problem complexity in deductive reason ing. W: J. P. Caverni, J. M. Fabre, M. Gonzalez (red.), Cognitive biases (s, 131-154). Oxford, England: North-Holland. Evett, L. J., Humphreys, G. W. (1981). The use of abstract graphemic information in lexical access. Quarterly Journal of Experimental Psychology, 53A, 325-350. Eysenck, H. J. (1967). The biological basis of personality. Springfield: CC Thomas. Eysenck, H. J. (1986). A new view of human intelligence: Critical review of „Beyond IQ: A triarchic theory of human intelligence” by R. J. Sternberg. British Journal of Educational Psychology, 56, 106-108. Eysenck, M. W. (1982). Attention and arousal. Berlin: Springer-Verlag. Eysenck, M. W., Keane, M. T. (1995). Cognitive psychology: A student's handbook. Hove, England: Erlbaum. Eysenck, S. B. G. (1983). One aproach to cross-cultural studies of personality. Australian Journal of Psychology, 35, 381-391. Fagot, C., Pashler, H. (1992). Making two responses to a single object: Implications for the central attentional bottleneck. Journal of Experimental Psychology. Human Perception and Performance, 18, 1058-1079. Falkowski, A., Tyszka, T. (2001). Psychologia zachowah konsumenckich. Gdansk: GWP.
Bibliografia
679
Farah, M. J. (1992). Is an object an object and object? Cognitive and neuropsychological investigations of domain specificity in visual object recognition. Current Directions in Psychological Science, 2, 55-82. Farrand, P., Hussain, F., Hennessy, E. (2002). The efficacy of the ‘mind map’ study technique. Medical Education, 36, 426-431. Fehr, B. (1988). Prototype analysis of the concepts of love and commitment. Journal of Personality and Social Psychology, 55, 557-579. Fehr, B., Russell, J. A. (1984). Concept of emotion viewed from a prototype perspective. Journal of Experimental Psychology: General, 115, 464-486. Fehr, B., Russell, J. A. (1991). The concept of love viewed from a prototype perspective. Journal of Personality and Social Psychology, 60, 425-438. Feltovitch, P. J., Johnson, P. E., Moller, H. J., Swanson, D. B. (1984). LCS: The role of and development of medical knowledge in diagnostic expertise. W: W. C. Clancey, E. H. Shortliffe (red.), Readings in medical artifical intelligence (s. 275-319). Reading, MA: Addison-Wesley. Feltovitch, P. J., Spiro, R. J., Coulson, R. L. (1997). Issues in expert flexibility in context characterized by complexity and change, W: P. J. Feltovitch, K. M. Ford, R. R. Hoffman (red.), Expertise in context (s. 126-146). London: MIT Press. Ferreira, F. (1993). Creation of prosody during sentence production. Psychological Review, 100, 233-253. Ferreira, F. (2002). Prosody, W: Encyclopedia of cognitive science. London, UK: Macmillan Reference Ltd. Ferreira, F., Christianson, K., Hollingworth, A. (2001). Misinterpretations of garden-path sentences: Implications for models of reanalysis. Journal of Psycholinguistic Research, 30, 3-20. Festinger, L. (1957). A Theory of cognitive dissonance. Stanford, CA: Stanford University Press. Fillenbaum, S. (1975a). If: some uses. Psychological Research, 37, 245-260. Fillenbaum, S. (1975b). A note on memory for sense: Identical recognition of warnings phrased as conditionals, disjunctives, and conjunctives. Bulletin of the Psychonomic Society, 6, 293-294. Finke, R. A. (1985). Theories relating mental imagery to perception. Psychological Bulletin, 98, 236-259. Finke, R. A., Ward, T. B., Smith, S. M. (1992). Creative cognition: Theory, research, and applications. Cambridge, MA: MIT Press. Fischler, I., Goodman, G. D. (1978). Latency of associated activation in memory. Journal of Experimental Psychology: Human Perception and Performance, 4, 4 5 5-4 70 . Fisher, R. P., Craik, F. I. (1977). Interaction between encoding and retrieval operations in cued recall. Journal of Experimental Psychology: Human Learning and Memory, 3, 701-711. Fisk, A. D., Schneider, W. (1981). Control and automatic processing during tasks requiring sustained attention: A new approach to vigilance. Human Factors, 23, 737-750. Fiske, S. T., Taylor, S. E. (1991). Social cognition. New York: McGraw-Hill. Fitzgerald, J. M, (1996). Intersecting meanings of reminiscence in adult development and aging. W: D. C. Rubin (red.), Remembering our past: Studies in autobiographical memory (s. 360-383). New York, NY, US: Cambridge University Press. Flavell, J. H. (1979). Metacognition and cognitive monitorinig. American Psychologist, 34, 906-911. Flavell, J. H., Flavell, E. R., Green, F. L. (1983). Development of the appearance-reality distinction. Cognitive Psychology, 15, 95-120. Fleishman, E. A., Parker, J. F. Jr. (1962). Factors in the retention and relearning of perceptual-motor skill. Journal of Experimental Psychology, 64, 215-226.
680
Bibliografia
Fleszner, E. (1960). Abstrakcja w procesie rozwiązywania zadań. Studia Psychologiczne, III, 53-94. Fodor, J. A. (1975). The language of thought. New York: Thomas Y. Crowell Co. Fodor, J. A. (1983). The modularity of mind. Cambridge, MA: MIT Press. Ford, M. (1995). Two modes of representation and problem solution in syllogistic reasoning. Cognition, 54, 1-71. Fowler, C. A., Wolford, G., Slade, R., Tassinary, L. (1981). Lexical access with and without awareness. Journal of Experimental Psychology: General, 110, 341-362. Francolini, C. N., Egeth, H. E. (1980). On the non-automaticity of automatic activation: Evidence of selective seeing. Perception and Psychophysics, 27, 331-342. Francuz, P. (1991). Funkcja ilościow ych i jak ościow ych cech w kategoryzacji przedmiotów. Lublin: Towarzystwo Nauk. KUL. Franklin, H. C., Holding, D. H. (1977). Personal memories at different ages. Quarterly Journal of Experimental Psychology, 29, 527-532. Frankmann, J. P., Adams, J. A. (1962). Theories of vigilance. Psychological Bulletin, 59, 257-272. Franks, J. J., Bransford, J. D. (1971). Abstraction of visual patterns. Journal of Experimental Psychology, 90, 65-74. Frazier, L., Rayner, K. (1982). Making and correcting errors during sentence comprehension: Eye movements in the analysis of structurally ambiguous sentences. Cognitive Psychology, 14, 178-210. Frensch, P. A., Sternberg, R. J. (1989). Expertise and intelligent thinking: When is it worse to know better? W: R. J. Sternberg (red.), Advances in the psychology of human intelligence (t. 5, s. 157-188). Hillsdale, NJ, England: Lawrence Erlbaum Associates, Inc. Friedman, A. (1979). Framing pictures: The role of knowledge in automatised encoding and memory for gist. Journal of Experimental psychology: General, 108, 316-355. Friedman, N. P., Miyake, A. (2004). The relations among inhibition and interference control functions: A latent-variable analysis. Journal of Experimental Psychology: General, 155, 101-135. Frisby, J. P. (1979). Seeing: mind, brain and illusion. Oxford: Oxford University Press. Frost, N, (1972). Encoding and retrieval in visual memory tasks. Journal of Experimental Psychology, 95, 317-326. Funke, J. (1983). Einige Bemerkungen zu Problemen der Problemloseforschung oder: ist Testintelligenz doch ein Pradiktor? (Issues in problem solving research: Is test intelligence a predictor after all?). Diagnostica, 29, 283-302. Funke, J. (1991). Solving complex problems: Exploration and control of complex systems. W: R. J. Sternberg, P. A. Frensch (red.), Complex problem solving: F>rinciples and mechanisms (s. 185-222). Hillsdale, NJ, England: Lawrence Erlbaum Associates, Inc. Funke, J. (1995). Experimental research on complex problem solving. W: P. A. Frensch, J. Funke (red.), Complex problem solving: The European perspective (s. 243-268). Hillsdale, NJ, England: Lawrence Erlbaum Associates, Inc. Galton, F. (1883). Inquiries into human faculty and its development. London: Macmillan. Garrett, M. F. (1975). The analysis of sentence production. W: G. H. Bower (red.), The psychology of learning and motivation (t. 9). New York: Academic Press. Gathercole, S. E. (1999). Cognitive approaches to the development of short-term me mory. Trends in Cognitive Science, 3, 41 (M U8 Gathercole, S. E., Pickering, S. J. (1999). Estimating the capacity of phonological short term memory. International Journal of Psychology, 34, 378-382 Gattis, M., Dupeyrat, C. (2000). Spatial strategies in reasoning. W: W. Schaeken, G. De Vooght (red.), Deductive reasoning and strategies (s. 153-175). Mahwah, NJ: Lawrence Erlbaum Associates.
Bibliografia
681
Gehringer, W. L., Engle, E. (1986). Effect of ecological viewing conditions on A m es’ distorted room illusion. Journal of Experimental Psychology: Human Perception and Performance, 12, 181-185. Gelman, R. (1999). Narve mathematics. W: R. A. Wilson, F. C. Keil (red.), The MIT encyclopedia of the cognitive sciences (s. 575-577). Cambridge, MA: The MIT Press. Gentner, D. (1983). Structure-mapping: A theoretical framework for analogy. Cognitive Science, 7, 155-170. Gentner, D., Holyoak, K. J. (1997). Reasoning and learning by analogy: Introduction. American Psychologist, 52, 32-34. Getzels, J. W. (1982). The problem of the problem. W: H. Hogarth (red.), New direction in the methodology of social and behavioral science: Question framing and response consistency (t. 11, s. 37-49). San Francisco: Jossey Bass. Getzles, J. W., Csikszentmihalyi, M. (1976). The creative vision: A longitudinal study of problem finding in art. New York: Wiley. Ghiselin, B. (1952). The creative process. Berkeley: University of California Press. Gibson, E. J. (1969). Principles of perceptual learning. New York: Appleton-CenturyCrofts. Gibson, E. J., Shapiro, F., Jonas, A. (1968). Confusion matrices for graphic patterns obtained with a latency measure. W: The analysis of reading skill: A program of basic and applied research. Cornell University. Gibson, J. J. (1950). The perception of the visual world. New York: Houghton-Mifflin. Gibson, J. J. (1966). The senses considered as perceptual systems. Boston: Houghton Mifflin. Gibson, J. J. (1979). The ecological approach to visual perception. Boston: Houghton Mifflin. Gick, M. L. (1986). Problem-solving strategies. Educational Psychologist, 21, 99-120. Gick, M. L., Holyoak, K. J. (1980). Analogical problem solving. Cognitive Psychology, 12, 306-355. Gick, M. L., Holyoak, K. J. (1983). Schema induction and analogical transfer. Cognitive Psychology, 15, 1-38. Gick, M. L., McGarry, S. J. (1992). Learning from mistakes: inducing analogous solution failures to a source problem produces later successes in Analogical Transfer. Journal of Experimental Psychology: Learning, Memory, and Cognition, 18, 623-639. Gigerenzer, G., Goldstein, D. G. (1999). Betting on one good reason: The take the best heuristic. W: G. Gigerenzer, P. M. Todd, the ABC Research Group (red.), Simple heuristics that make us smart (s. 75-95). Oxford, UK: Oxford University Press. Gigerenzer, G., Hoffrage, U. (1995). How to improve Bayesian reasoning without instruction: frequency formats. Psychological Review, 102, 684-704. Gigerenzer, G., Todd, P. M. (1999). Fast and frugal heuristics: The adaptive toolbox. W: G. Gigerenzer, P. M. Todd, the ABC Research Group (red.), Simple heuristics that make us smart (s. 3-34). Oxford, UK: Oxford University Press. Gigerenzer, G., Todd, P. M., the ABC Research Group (1999) (red.), Simple heuristics that make us smart. Oxford, UK: Oxford University Press. Gilbert, S. J., Shallice, T. (2002). Task switching: A PDP model. Cognitive Psychology, 44, 297-337. Glanzer, M., Cunitz, A. R. (1966). Two storage mechanisms in free recall. Journal of Verbal Learning and Verbal Behavior, 5, 351-360. Glaser, R. (1996). Changing the agency for learning: Acquiring expert performance. W: K. A. Ericsson (red.), Road to excellence: The acquisition of expert performance in the arts and sciences, sports, and games (s. 303-311). Hillsdale, NJ, England: Law rence Erlbaum Associates, Inc. Glass, A. L., Holyoak, K. J. (1975). Alternative conceptions of semantic memory. Cognition, 3, 313-339.
682
Bibliografia
Glass, A. L., Holyoak, K. J., Santa, J. L. (1979). Cognition. Addison-Wesley: Reading Mass. Glass, A. L., Millen, D. R., Beck, L. G., Eddy, J. K. (1985). Representation of images in sentence verification. Journal of Memory and Language, 24, 442-465. Gleason, H. A. (1961). An introduction to descriptive linguistics. New York: Holt, Rinehart and Winston. Gieitman, L., Bloom, P. (1999). Language acquisition. W: R. A. Wilson, F. C. Keil (red.), The MIT Encyclopedia of the cognitive sciences (s. 434-438). Cambridge, MA: The MIT Press. Gieitman, L. R., Wanner, E. (1982). Language acquisition: The sate of the art W: E. Wanner, L. R. Gieitman (red.), Language acquisition: The state of the art (s. 3 48). New York: Cambridge University Press. Glenberg, A., Adams, F. (1978). Type, rehearsal and recognition. Journal of Verbal Learning and Verbal Behavior, 17, 455-463. Glucksberg, S., Cowan, G. N. Jr. (1970). Memory for nonattended auditory material. Cognitive Psychology, 1, 149-156. Gobet, F., Simon, H. A. (1996a). Templates in chess memory: A mechanism for recalling several boards. Cognitive Psychology, 31, 1-40. Gobet, F., Simon, H. A. (1996b). Recall of random and distorted chess positions: Implications for the theory of expertise. Memory & Cognition, 24, 493-503. Gobet, F., Simon, H. A. (1996c). Recall of rapidly presented random chess positions is a function of skill. Psychonomic Bulletin and Review, 3, 159-163. Godden, D. R., Baddeley, A. D. (1975). Context-dependent memory in two natural environments: On land and underwater. British Journal of Psychology, 66, 325-331. Godden, D. R., Baddeley, A. D. (1980). When does context influence recognition memory? British Journal of Psychology, 71, 99-104. Godijn, R., Theeuwes, J. (2002). Programming of endogenous and exogenous saccades: evidence for competitive integration model. Journal of Experimental psychology: H uman Perception and Performance, 28, 1039-1054. Goel, V., Buchel, C., Frith, C., Dolan, R. J. (2000). Dissociation of mechanisms underlying syllogistic reasoning. Neuroimage, 12, 504-514. Goldman, B. A., Flake, W. L. (1998). The Battery of Interpersonal Capabilities and Rokeach’s Dogmatism Scale: Is there a relationship? Psychological Reports, 71, 104-106. Goldstone, R. L., Barsalou, L. W. (1998). Reuniting perception and conception. Cognition, 65, 231-262. Gopher, D. (1992). The skill of attention control: Acquisition and execution of attention strategies. W: D. E. Meyer, S. Kornblum (red.), Attention and performance (t. XIV). Cambridge: MIT Press. Gopher, D., Armony, L., Greensphan, Y. (2000). Switching task and attention policies. Journal of Experimental Psychology: General, 129, 308-339. Gopher, D., Brickner, M,, Navon, D. (1982). Different difficulty manipulations interact differently with task emphasis: Evidence for multiple resources. Journal of Experimental Psychology. Human Perception and Performance, 8, 146-157. Gordon, I. E. (1989). Theories of visual perception. Chichester, UK: J. Wiley. Goschke, T. (2000). Intentional reconfiguration and involuntary persistence in task set switching. W: S. Monsell, J. Driver (red.), Control of cognitive processes. Attention and performance (t. XVIII, s. 331-356). Cambridge: MIT Press. Gough, H. G., Bradley, P. (1996). CPI manual (wyd. 3). Chapter 1: Introduction (s. 1-1 6 ). Palo Alto, CA: Consulting Psychologists Press. Gould, S. J. (1999). A critique of Heckhausen and Schulz’s (1995) life-span theory of control from a cross-cultural perspective. Psychological Review, 106, 597-604. Góralski, A, (1980). Twórcze rozwiązywanie zadań. Warszawa: PWN.
Bibliografia
683
Graesser, A. C., Singer, M., Trabasso, T. (1994). Constructing inferences during narrative text comprehension. Psychological R eview , 101, 371-395. Graesser, A. C., Woli, S. B., Kowalski, D. J., Smith, D. A. (1980). Memory for typical and atypical actions in scripted activities. Journal of Experimental Psychology. Learning, Memory, and Cognition, 6, 503-515. Graf, P., Schacter, D. L. (1985). Implicit and explicit memory for new associations in normal and amnesic subjects. Journal of Experimental Psychology: Learning, Memory, and Cognition, 11, 501-518. Grafman, J. (1989). Plans, action and mental sets: Managerian knowledge units in the frontal lobes. W: E. Perecman, Integrating theory an d practice in clinical neuropsychology. Hillsdale, NJ, England: Lawrence Erlbaum Associates. Graham, C. H. (1965). Visual space perception. W: C. H. Graham (red.), Vision and visual perception (s. 504-547). New York: Wiley. Graham, G. (1998). Philosophy of mind: An introduction (wyd. 2). Oxford, UK: Blackwell Publishers. Grant, E. R., Spivey, M. J. (2003). Eye movements and problem solving: Guiding attention guides thought. Psychological Science, 14, 462-466. Gray, J. A., Wedderburn, A. A. I. (1960). Grouping strategies with simultaneous stimuli. Quarterly Journal of Experimental Psychology, 12, 180-184. Green, D. M., Swets, J. A. (1966). Signal detection theory and psychophysics. New York, Wiley. Green, D. W. (1994). Induction: Representation, strategy and argument. International Studies in the Philosophy of Science, 8, 45-50. Greeno, J. G. (1974). Hobbits and ores: Acquisition of a sequential concept. Cognitive Psychology, 6, 270-292. Greeno, J. G. (1976). Indefinite goals in well-structured problems. Psychological Review, 83, 479-491. Greeno, J. G. (1978). Natures of problem-solving abilities. W: W. K. Estes (red.), Handbook of learning and cognitive processes: Human information (t. V, s. 2 3 9 270). Oxford, England: Lawrence Erlbaum. Greeno, J. G. (1980). Psychology of learning, 1960-1980: One participant’s observations. American Psychologist, 35, 713-728. Greenwałd, A. G. (1972). On doing two things at once: time sharing as a function of ideomotor compatibility. Journal of Experimental Psychology, 94, 52-57. Greenwałd, A. G., Shulman, H. G. (1973). On doing two things at once: II. The elimination of the psychological refractory period effect. Journal of Experimental Psychology. General, 101, 70-76. Gregory, R. L. (1970). The intelligent eye. New York: McGraw-Hill. Grice, G. R., Davis, J. D. (1957). Effect of irrelevant thirst motivation on a response learned with food reward. Journal of Experimental Psychology, 53, 347-352. Grice, H. P. (1975). Logic and conversation. W: P. Cole, J. L. Morgan (red.), Syntax and semantics. T. 3: Speech acts (s. 41-58). New York: Academic Press. Grice, H. P. (1989). Studies in the way of words. Cambridge, MA: Harvard University Press. ✓ Griffin, D. R. (2004). Umysły zwierzaj (przel. M. Slósarska, A. Tabaczyńska). Gdańsk: GWP. Griggs, R. A., Cox, J. R. (1982). The elusive thematic-materials effect in W ason’s selection task. British Journal of Psychology, 73, 407-420. Grigorenko, E. L., Sternberg, R. J. (2001). Analytical, creative, and practical intelligence as predictors of self-reported adaptive functioning: A case study in Russia. Intelli gence, 29, 57-74. Grosjean, F. (1997). The Bilingual individual. Interpreting, 2„ 163-187.
684
Bibliografia
Gruszka, A., Nęcka, E. (2002). Priming and acceptance of close and remote associations by creative and less creative people. Creativity Research Journal, 14, 193-205. Guetzkow, H. (1951). An analysis of the operation of set in problem-solving behavior. Journal of General Psychology, 45, 219-244. Guilford, J, P. (1959). Three faces of intellect. American Psychologist, 14, 469M79. Guilford, R. N., Juola, J. F. (1976). Familiarity effects on memory search and visual search. Bulletin of the Psychonomic Society, 7, 142-144. Guynn, M. J., McDaniel, M. A., Einstein, G. O. (1998). Prospective memory: When reminders fail. Memory and Cognition, 26, 287-298. Hadamard, J. (1964). Psychologia odkryć matem atycznych. Warszawa: PWN. Halford, G. S., Maybery, M. T., Bain, J. D. (1988). Set-size effects in primary memory: An age-related capacity limitation. Memory and Cognition, 16, 480-487. Hall, J. F. (1979). Recognition as a function of word frequency. American Journal of Psychology, 92, 497-505. Halpern, A. R. (1986). Memory for tune titles organized or unorganized presentation. American Journal of Psychology, 99, 57-70. Halpern, D. F. (2003). Thinking critically about creative thinking. W: M. A. Runco (red.), Critical creative processes (s. 189-207). Cresskill, NJ: Hampton Press. Hampton, J. A. (1979). Polymorphous concepts in semantic memory. Journal of Verbal Learning and Verbal Behavior, 18, 441-461. Hampton, J. A. (1981). An investigation of the nature of abstract concepts. Memory and Cognition, 9, 149-156. Harmon, M. G., Morse, L. W. (1995). Strategies and knowledge in problem solving: Results and implication for education. Education, 115, 580-589. Harnish, R. M. (2002). Minds, brains, computers: An historical introduction to the foundations of cognitive science. Oxford, UK: Blackwell Publishers. Harrison, R. H., Newirth, J. (1990). The effect of sensory deprivation and ego strength on a measure of autistic thinking. Journal of Personality Assessment, 54, 694-703. Harshman, E. J., MacHale, D., Sloane, P. (2003). Lateral thinking puzzles. New York: Sterling. Hasher, L., Zacks, R. (1979). Automatic and efortfull processes in memory. Journal of Experimental Psychology: General, 108, 356-388. Hayes, J. R. (1989). The complete problem solver (wyd. 2). Hillsdale, NJ, England: Lawrence Erlbaum Associates. Hebb, D. O. (1949). The organization of behavior. New York: Wiley. Hebb, D. O. (1969). Podręcznik psychologii (tłum. J. Pałczyński, J. Siuta). Warszawa: PWN. Henley, N. M. (1969). A psychological study of the semantics of animal terms. Journal of Verbal Learning and Verbal Behavior, 8, 176-184. Higham, P. A. (1997). Dissociations of grammaticality and specific similarity effects in artificial grammar learning. Journal of Experimental Psychology: Learning, Memory, and Cognition, 23, 1029-1045. Hilton, D. J., Jaspars, J. M., Clarke, D. D. (1990). Pragmatic conditional reasoning: Context and content effects on the interpretation of causal assertions. Journal of Pragmatics, 14, 791-812. Hirschfeld, L. A. (1999). Narve sociology. W: R. A. Wilson, F. C. Keil (red.), The MIT encyclopedia of the cognitive sciences (s. 579-581). Cambridge, MA; The MIT Press. Hirsh-Pasek, K., Golinkoff, R. (1996). The origins of grammar: Evidence from early language comprehension. Cambridge, MA: The MIT Press. Hirst, W., Kalmar, D. (1987). Characterizing attentional resources. Journal of Experi mental Psychology. General, 116, 68-81. Hoffman, D. D., Richards, W. A. (1984). Parts of recognition. Cognition, 18, 65-96.
Bibliografia
685
Hitch, G. J. (1978). The role of short-term working memory in mental arithmetic. Cognitive Psychology, 10, 302-323.
Hoffrage, U., Gigerenzer, G. (1998). Using natural frequencies to improve diagnostic inferences. Academic Medicine, 73, 538-540. Holding, D. (1985). The Psychology of Chess Skill New Jersey: Lawrence Erlbaum Associates.
Holender, D. (1986). Semantic activation without conscious identification in dichotic listening, parafoveal vision, and visual masking: A survey and appraisal. The Behavioral and Brain Sciences, 9, 1-66. Holyoak, K. J., Koh, K. (1987). Surface and structural similarity in analogical transfer. Memory and Cognition, 15, 332-340. Holyoak, K. J., Nisbett, R. E. (1988). Induction. W: R. J. Sternberg, E. E. Smith (red.), The psychology of human thought (s. 50-91). New York: Cambridge University Press. Horbaczewski, T., Szymura, B. (w druku). Kibice uwaga na reklamy! O efektywności różnych form prezentacji marki produktu na zewnętrznych planszach reklamowych. Studia Psychologiczne. Horstmann, G. (2003). The psychological Refractory Period of Stopping. Journal of Experimental Psychology. Human Perception and Performance, 29, 965-981. Horton, W. S., Keysar, B. (1996). When do speakers take into account common ground? Cognition, 59, 91-117. Hovland, C. I, (1938). Experimental studies in rote-learning theory. I. Reminiscence following learning by massed and distributed practice. Journal of Experimental Psychology, 22, 201-224. Howard, D. V. (1983). Cognitive psychology: Memory, language and thought. New York: Macmillan. Howard, D., Orchard-Lisle, V. (1984). On the origin of semantic errors in naming: Evidence from the case of global aphasic. Cognitive Neuropsychology, 1, 163-190. Howard, I. P., Bergström, S. S., Masao, O. (1990). Shape from shading in different frames of reference. Perception, 19, 523-530. Hubbard, T. L. (1997). Target size and displacement along the axis of implied gravitational attraction: effects of implied weight and evidence of representational gravity. Journal of Experimental Psychology. Learning, Memory, and Cognition, 23, 1484-1493. Hubel, D. H., Wiesel, T. N. (1959). Receptive fields of single neurons in the cat’s striate cortex. Journal of Physiology (London), 148, 574-591. Humphreys, G. W., Bruce, V. (1989). Visual cognition: Computational, experimental, and neuropsychological perspectives. Hove, UK: Lawrence Erlbaum Associates Ltd. Humphreys, G. W., Riddoch, M. J. (1987). To see but not to see: A case study of visual agnosia. Hove, UK: Lawrence Erlbaum Associates Ltd. Hunt, E. B. (1975). Artifical intelligence. New York: Academic Press. Hunt, E. B. (1980). Intelligence as an information-processing concept. British Journal of Psychology, 71, 449-474. Hunt, E. B. (1995). The role of intelligence in modern society. American Scientist, 83, 356-368. Hunt, E. B., Lansman, M. (1982). Individual differences in attention. W: R. J. Sternberg (red.), Advances in the psychology of human intelligence (s. 207-254). Hillsdale, NJ: LEA. Hunt, E. B., Love, T. (1972). How good can memory be? W: A. Melton, E. Martin (red.), Coding Process in Human Memory. Washington: VH Winston & Sons. Hunziker, H. W. (1964). Plastizität als Faktor der Spannungsüberwindung in Denkauf gaben (Plasticity as a factor of conquering tensions during problem solving tasks). Zeitschrift für Experimentelle und Angewandte Psychologie, 11, 185-237.
686
Bibliografia
Hyde, T. S., Jenkins, J. J. (1969). The differential effects of incidental tasks on the organization of recall of a list of highly associated words. Journal of Experimental Psychology, 82, 427-481. Hyman, I. E. (1999). Creating false autobiographical memories: Why people believe their memory errors. W: E. Winograd, R. Fivush i W. Hirst (red.), Ecological approaches to cognition: Essays in honor of Ulric Neisser (s. 229-252). Mahwah, NJ, US: Lawrence Erlbaum Associates, Publishers. Inhoff, A. W. (1989). Parafoveal processing of words and saccade computation during eye fixations in reading. Journal of Experimental Psychology: Human Perception and Performance, 15 (3), 544-555. Intons-Peterson, M. J. (1983). Imagery paradigms: How vulnerable are they to experi menter’s expectations? Journal of Experimental Psychology: Human Perception and Performance, 9, 394-412. Intons-Peterson, M, J., Roskos-Ewaldson, B. B. (1989). Sensory-perceptual qualities of images. Journal of Experimental Psychology: Learning, Memory, and Cognition, 15, 188-199. Irwin, H. J. (1981). Processing interaction in semantic analysis of attended and unattended visual inputs: A directional effect. The Journal of General Psychology, 104, 8 7 - 93. Itellson, W. H. (1951). Size as a cue to distance: Static localization. American Journal of Psychology, 64, 54-67. Jackoby, L. L. (1978). On interpreting the effects of repetition: Solving a problem versus remembering a solution. Journal of Verbal Learning and Verbal Behavior, 17, 649-667. James, W. (1890). Principles of psychology. New York: Holt. Jaskowski, P., Skalska, B., Verleger, R. (2003). How the self controls its „automatic pilot” when processing subliminal information. Journal of Cognitive Neuroscience, 15,
911-921. Jausovec, N. (1991). Flexible strategy use: A characteristic of gifted problem solving. Creativity Research Journal, 4, 349-366. Jenkins, J. G., Dallenbach, K. M. (1924). Obliviscence during sleep and waking. American Journal of Psychology, 35, 605-612. Jensen, A. R. (1970). IQ’s of identical twins reared apart. Behaviour Genetics, 1,133-146. Jensen, A. R. (1992), The importance of intraindividual variation in reaction time. Personality and Individual Differences, 13, 869-881. Jerrison, H. J. (1959). Effects of noise on human performance. Journal of Applied Psychology, 43, 96-101. Jerrison, H. J., Pickett, R. M. (1964). Vigilance: The impotence of the elicited observing rate. Science, 143, 970-971. Jersild, A. T, (1927). Mental set and mental shift. Archives of Psychology, 14 (caly nr 89). Johnson, C. J., Paivio, A., Clark, J. M. (1996). Cognitive components of picture naming. Psychological Bulletin, 120, 113-139. Johnson, K. E., Mervis, C. B. (1997). Effects of varying levels expertise on the basic level of categorization. Journal of Experimental Psychology. General, 126, 248-277. Johnson, M. K., Hashtroudi, S., Lindsay, D. S. (1993). Source monitoring. Psychological Bulletin, 114, 3-28. Johnson-Laird, P. N. (1983). M ental models. Cambridge: Cambridge University Press. Johnson-Laird, P. N. (1994). Mental models and probabilistic thinking. Cognition, 50, 189-209. Johnson-Laird, P. N., Byrne, R. M. J. (1991). Deduction. Hove, Sussex: Erlbaum. Johnson-Laird, P. N., Byrne, R. M. J., Schaekena, W. (1992). Propositional reasoning by model. Psychological Review, 99, 418-439.
Bibliografia
68 7
Johnson-Laird, P. N., Legrenzi, P., Girotto, V., Legrenzi, M. S., Caverni, J. (1999). Naive Probability: A Mental model theory of extensional reasoning. Psychological R eview , 106, 62-88. Johnson-Laird, P. N., Legrenzi, P., Legrenzi, M. (1972). Reasoning and a sense of reality. British Journal of Psychology, 63, 395-400. Johnson-Laird, P. N., Steedman, M. (1978). The psychology of syllogisms. Cognitive Psychology, 10, 64-99. Johnston, W. A. (1978). The intrusiveness of familiar nontarget information. Memory and Cognition, 6, 38-42. Johnston, W. A., Dark, V. J. (1982). In defense of intraperceptual theories of attention. Journal of Experimental Psychology. Human Perception and Performance, 8 , 4 0 7 -421. Johnston, W. A., Dark, V. J. (1986). Selective attention. Annual R eview of Psychology, 37, 43-75. Johnston, W. A., Heinz, S. P. (1978). Flexibility and capacity demands of attention. Journal of Experimental Psychology. General, 107, 420-435. Johnston, W. A., Heinz, S. P. (1979). Depth of nontarget processing in an attention task. Journal of Experimental Psychology. Human Perception and Performance, 5, 168-175. Johnston, W. A., Wilson, J. (1980). Perceptual processing of nontargets in an attention task. Memory and Cognition, 8, 372-377. Joliceour, P., Regehr, S., Smith, L. B., Smith, G. N. (1985). Mental rotation of repre sentations of two-dimensional and three-dimensional objects. Canadian Journal of Psychology, 39, 100-129. Jonides, J. Yantis, S. (1988). Uniqueness of abrupt visual onset in capturing attention. Perception and Psychophysics, 43, 346-354. Jost, A. (1897). Die Assoziationsfestigkeit in ihrer Abhängigkeit von der Verteilung der Wiederholungen. Zeitschrift für Psychologie und Physiologie der Sinnesorgane, 16, 436-472. Julesz, B., Bergen, J. R. (1983). Textons, the fundamental elementsin preattentive visions. The Bell System Technical Journal, 62, 1619-1645. Jung, C. G. (1971). Psychological types. Princeton, NJ: Princeton University Press. Just, M. A., Carpenter, P. A. (1992). A capacity theory of comprehension: Individual differences in working memory. Psychological Review, 99, 122-149. Kahn, B. E., Isen, A. M. (1993). The influence of positive affect on variety seeking among safe, enjoyable products. Journal of Consumer Research, 20, 257-270. Kahneman, D. (1970). Remarks on attention control. W: A. F, Sanders (red.), Attention and performance (t. III). Amsterdam: North-Holland Publishing Company. Kahneman, D. (1973). Attention and effort. New Jersey: Prentice Hall, Kahneman, D. (1975). Effort, recognition and recall in auditory attention. W: P. M. A. Rabbit, S. Dornic (red.), Attention and performance. V. New York: Academic Press. Kahneman, D., Chajczyk, D. (1983). Test of the automaticity of reading: Dilution of the Stroop efects by color-irrelevant stimuli. Journal of Experimental Psychology: Human Perception and Performance, 9, 497-509. Kahneman, D., Slovic, P., Tversky, A. (1982). Judgment under uncertainty: Heuristics and biases. Cambridge: Cambridge University Press. Kahneman, D., Treisman, A. (1984). Changing views of attention and automaticity. W: R. Parasuraman, D. R. Davies (red.), Varieties of attention. Orlando: Academic Press. Kahneman, D., Treisman, A., Burkell, J. (1983). The cost of visual filtering. Journal of Experimental Psychology. Human Perception and Performance, 9, 510-522. Kahneman, D., Tversky, A. (1972). Subjective probability: A judgment of representati veness. Cognitive Psychology, 3, 430-454.
688
Bibliografia
Kahneman, D., Tversky, A. (1979). „Prospect” theory: An analysis of decision under risk. Econometrica, 47, 263-293. Kahneman, D., Tversky, A. (1984). Choices, values and frames. American Psychologist, 39, 341-350. Kanizsa, G. (1976). Subjective contours. Scientific American, 234, 48-52. Kantona, G. (1940). Organizing and memorizing. New York: Columbia University Press. Kaplan, C. A., Simon, H. A. (1990). In search of insight. Cognitive Psychology, 22, 374-419. Kapur, S., Craik, F. I. M., Tulving, E., Wilson, A. A., Hoyle, S., Brown, M. G. (1994). Neuroanatomical correlates of encoding in episodic memory: Levels of processing effect. Proceedings of The National Academy of Sciences, 91, 2008-2011. Karmiloff-Smith, A. (1992). Beyond modularity. Cambridge, MA: Cambridge University Press. Kelly, G. A. (1955). The psychology of personal constructs. New York: Norton. Kemp, S. (1998). Medieval theories of mental representetion. History of Psychology, 1, 275-288. Keppel, G., Underwood, B. J. (1962). Proactive inhibition in short-term retention of signal items. Journal of Verbal Learning and Verbal Behavior, 1, 153-161. Keren, G., O ’Hara, W. P., Skelton, J. M. (1977). Levels of noise processing and attentional control. Journal of Experimental Psychology. Human Perception and Performance, 3, 653-664. Kerkhof, G. A., van der Schaaf, T. W., Korving, H. J. (1980). Auditory signal detection. Effects of long term practice and time on task. Perception and Psychophysics, 28, 79-81. Kielar-Turska, M. (2000). Rozwój człowieka w pełnym cyklu życia. W: J. Strelau (red.), Psychologia. Podręcznik akadem icki (t. 1, s. 285-332). Gdańsk: GWP. King, J., Just, M. A. (1991). Individual differences in syntactic processing: The role of working memory. Journal of Memory and Language, 30, 580-602. Kintsch, W. (1970). Learning, memory and conceptual processes. New York: Wiley. Kintsch, W. (1977). On comprehending stories. W: P. Carpenter, M. Just (red.), Cognitive processes in comprehension. Hillsdale, NJ: Erlbaum. Kintsch, W. (1988). The role of knowledge in text comprehension: A construction-integration model. Psychological Review, 95, 163-182. Kintsch, W. (1998). Comprehension: A paradigm for cognition. Cambridge, UK: Cam bridge University Press. Kintsch, W., Van Dijk, T. A. (1978). Toward a model of text comprehension and production. Psychological Review, 85, 363-394. Klahr, D. (1978). Goal formation, planning, and learning by pre-school problem solvers or: „My socks are in the dryer”. W: R. S. Siegler (red.), Children's thinking: What develops? (s. 181-212). Hillsdale, NJ, England: Lawrence Erlbaum Associates, Inc. Klauer, K. C., Musch, J., Naumer, B. (2000). On belief bias in syllogistic reasoning. Psychological Review, 107, 852-884. Kłayman, J., Ha, Y. W. (1987). Confirmation, disconfirmation, and information in hypo thesis testing. Psychological Review, 94, 211-228. Klein, F. B., Kihlstorm, J. F. (1986). Elaboration organization and the self-reference effect in memory. Journal of Experimental Psychology: General, 115, 26-38. Kline, P., Cooper, C. (1985). Rigid personality and rigid thinking. British Journal of Educational Psychology, 55, 24-27. Kluwe, R. H., Misiak, C., Haider-Hasebrink, H. (1991). The control of complex systems and performance in intelligence tests. W: H. A. H. Rowe (red.), Intelligence: Reconceptualization and measurement. Hillsdale, NJ, England: Lawrence Erlbaum Associates, Inc. Knaeuper, A., Rouse, W. B. (1985). A rule-based model of human problem-solving beha vior in dynamic environments. IEEE Transactions on Systems, Man, and Cyber netics, 15, 708-719.
Bibliografia
689
Knobłich, G., Ohlsson, S., Haider, H., Rhenius, D. (1999). Constraint relaxation and chunk decomposition in insight problem solving. Journal of Experimental Psycho logy: Learning, Memory, and Cognition, 25, 1534-1555. Knoblich, G., Ohlsson, S., Raney, G. E. (2001). An eye movement study of insight problem solving. Memory am d Cognition, 29, 1000-1009. Koedinger, K. R., Anderson, J. R. (1976). Abstract planning and perceptual chunks: Elements of expertise in geometry. Cognitive Science, 14, 511-550. Koehler, J. J. (1996). The base rate fallacy reconsidered: Descriptive, normative, and methodological challenges. Behavioral and Brain Sciences, 19, 1-53. Koelega, H. S. (1990). Extraversión and vigilance performance: 30 years of inconsis tencies. Psychological Bulletin, 112, 239-258. Kohs, S.C. (1923). Intelligence measurement; a psychological and statistical study based upon the block-design tests. Oxford, England: Macmillan. Kolańczyk, A. (1991). Intuicyjność procesów przetwarzania informacji. Gdańsk: Wyd. UG. Kolańczyk, A., Fila-Jankowska, A., Pawiowska-Fusiara, M., Sterczyński, R. (2004). Serce w rozumie. Afektywne podstawy orientacji w otoczeniu. Gdańsk: GWP. Kolers, A. P., Duchnicky, R. L., Sundstroem, G. (1985). Size in the visual processing of faces and words. Journal of Experimental Psychology. Human Perception and Performance, 11, 726-751. Komatsu, L. K. (1992). Recent views on conceptual structure. Psychological Bulletin, 112, 500-526. Koriat, A., Norman, J., Kimchi, R. (1991). Recognition of rotated letters: Extracting invariance across successive and simultaneous stimuli. Journal of Experimental Psychology. Human Perception and Performance, 17, 444-451. Kosslyn, S. M. (1975). Information representation in visual images. Cognitive Psycho logy, 7, 341-370. Kosslyn, S. M. (1981). The medium and the message in mental imagery: A theory. Psychological Review, 88, 46-65. Kosslyn, S. M. (1983). Ghosts in the mind's machine. Creating and using images in the brain. New York: Norton. Kosslyn, S. M. (red.). (1984). Tutorials in learnig and memory (s. 193-218). New York: Freeman. Kosslyn, S. M., Ball, T., Reiser, B. J. (1978). Visual images preserve metric spatial information: Evidence from studies of image scanning. Journal of Experimental Psychology: Human Perception and Performance, 4, 47-60. Kosslyn, S. M., Seger, C., Pani, J., Hillger, L. A. (1990). When is imagery used in everyday life: a diary study. Journal of Mental Imagery, 14, 131-152. Kossowska, M. (2005). Umysł nieznany... Poznawcze mechanizmy sztywności. Kraków: Wyd. UJ. Kossowska, M., Nęcka, E. (1994). Do it your own way: Cognitive strategies, intelligence, and personality. Personality and Individual Differences, 16, 33-46. Kotovsky, K., Hayes, J. R., Simon, H. A. (1985). Why are some problems hard? Evidence from Tower of Hanoi. Cognitive Psychology, 17, 248-294. Kowalska, D.M. (2000). Anatomiczne podstawy pamięci. W: T. Górska, A., Grabowska, J. Zagrodzka (red.). Mózg a zachowanie (s. 298-318). Warszawa: Wyd. Naukowe PWN. Kozielecki, J. (1968). Zagadnienia psychologii myślenia. Warszawa: PWN. Kozielecki, J. (1975). Psychologiczna teoria decyzji. Warszawa: PWN. Kozielecki, J. (1977). Koncepcje psychologiczne człowieka. Warszawa: PIW. Kozielecki, J. (1992). Myślenie i rozwiązywanie problemów. W: T. Tomaszewski (red.), Psychologia ogólna Percepcja. Myślenie. Decyzje, (s. 91-153). Warszawa: PWN. Köhler, W. (1925). An aspect of Gestalt psychology. Ped. Sem, 32, 691-723.
690
Bibliografia
Koster, E. P., Degel, J., Piper, D. (2002). Proactive and retroactive interference in implicit odor memory. Chemical Senses, 27, 191-206. Kramer, A. F., Humphrey, D. G., Larish, J. F., Logan, G. D., Strayer, D. L. (1994). Aging and inhibition: Beyond a unitary view of inhibitory processing in attention. Psychology and Aging, 9, 491-512. Kramer, D. A. (1990). Conceptualizing wisdom: The primacy of affect-cognition relations. W: R. J. Sternberg (red.), Wisdom: Its nature, origins, and development (s. 279-313). N ew York: Cambridge University Press. Kruglanski, A. W., Webster, D. M., Klem, A. (1993). Motivated Resistance and Openness to Persuasion in the Presence or Absence of Prior Information. Journal of Personality and Social Psychology, 65, 861-876. Kuhn, T. (1970). The structure of scientific revolutions (wyd. 2). Chicago: University of Chicago Press. Kurcz, I. (1987). Język a reprezentacja świata w umyśle. Warszawa: PWN. Kurcz, I. (1997). Pamięć. Uczenie się. Jeżyk. W: T. Tomaszewski (red.), Psychologia ogólna (t. 3). Warszawa: PWN. Kurcz, I. (2000). Język i komunikacja. W: J. Strelau (red.), Psychologia. Podręcznik akadem icki (t. 2, s. 231-274). Gdańsk: GWP. Kvavilashvili, L. (1987). Remembering intention as a distinct form of memory. British Journal of Psychology, 78, 507-518. Kwarciak, B. (1997). Co trzeba wiedzieć o reklamie. Kraków: Wyd. PSB. Kyllingsbek, S., Bundesen, C. (2001). Converging evidence for parallel processing of complex visual stimuli. Paper presented on the XIIESCOP Conference, Edinburgh, 5 -8 September, 2001. Kyllonen, P. C., Christal, R. E. (1990). Reasoning ability is (little more than) workingmemory capacity? Intelligence, 14, 389-433. Kyllonen, P. C., Lohman, D. F., Woltz, D. J. (1984). Componential modeling of alternative strategies for performing spatial tasks. Journal of Educational Psychology, 76, 1325-1345. LaBerge, D. (1995). Attentional Processing. Cambridge: Harvard University Press. Labouvie-Vief, G. (1990). Wisdom as integrated thought: Historical and developmental perspectives. W: R. J. Sternberg (red.), Wisdom: Its nature, origins, and development (s. 279-313). New York: Cambridge University Press. Lackner, J. R., Garrett, M. F. (1972). Resolving ambiguity: Effects of biasing context in the unattended ear. Cognition, 1, 359-371. Ladefoged, P., Silvestrien, R., Papcun, G. (1973). Itrerruptibility of the speech. Journal of the Acoustical Society of America, 54, 1105-1108. La Mettrie de, J. O. (1984/1751). Człowiek-maszyna (tłum. S. Rudniański). Warszawa: PWN. Langan-Fox, J., Shirley, D. A. (2003). The nature and measurement of intuition: Cognitive and behavioral interests, personality, and experiences. Creativity Research Journal, 15, 207-222. Langley, P., Jones, R. (1988). A computational model of scientific insight. W: R. J. Sternberg (red.), Nature of creativity: Contemporary psychological perspectives (s. 177-201). N ew York, NY, US: Cambridge University Press. Lansman, M., Poltrock, S. E., Hunt, E. (1983). Individual différencies in the ability to focus and divide attention. Intelligence, 7, 299-312. Larkin, J. H., McDermott, J., Simon, D. P. (1980a). Models of competence in solving physics problems. Cognitive Science, 4, 317-345. Larkin, J., McDermott, J., Simon, D. P. (1980b). Expert and novice performance in solving physics problems. Science, 208, 1335-1342. Larsen, S. E., Thompson, C. P., Hansen, T. (1996). Time in autobiographical memory. W: D. C. Rubin (red.), Remembering our past: Studies in autobiographical memory (s. 129-156). Cambridge, England: Cambridge University Press.
Bibliografia
691
Larson, G. E., Saccuzzo, D. P. (1986). Gender, neuroticism, and speed-acuracy tradeoffs and a choice reaction-time task. Personality and Individual Differences, 7, 919-921.
Lavie, N. (1995). Perceptual load as a necessary condition for selective attention. Journal of Experimental Psychology. Human Perception and Performance, 21, 451-468. Lavie, N. (2000). Selective attention and cognitive control. W: S. Monsell, J. Driver (red.), Attention and performance (t. 18, s. 175-197). Cambridge: MIT Press. Lavie, N., Tsai, Y. (1994). Perceptual load as a major determinant of the locus of selection in visual attention. Perception and Psychophysics, 56, 183-197. Leahey, T. H., Harris, R. J. (2001). Learning and cognition (wyd. 5). Upper Saddle River, NJ: Prentice-Hall. Leake, D. (1998). Cognition as case-based reasoning. W: W. Bechtel, G. Graham (red.), A companion to cognitive science, Oxford: Blackwell. Lehrer, R., Littlefield, J. (1993). Relationship among cognitive components in Logo learning and transfer. Journal of Educational Psychology, 85, 317-330. Lehrl, S. (1988). Informationpsychologie: Grundlagen, messungen, tests. Erlsberg: Vless. Lehrl, S., Fischer, B. (1988). The basic parameters of human information processing: their role in determination of intelligence. Personality and Individual Differences, 9, 883-896. Lenneberg, E. H. (1967). Biological foundations of language. Cambridge, MA: The MIT Press. Lesgold, A., Rubinson, H., Feltovich, P., Glaser, R., Klopfer, D. (1988). Expertise in complex skills: diagnosing X-ray pictures. W: M. T. H. Chi, R. Glaser, M. J. Farr (red.), The Nature of Expertise. Hilssdale, NJ: Erlbaum. Lettvin, J. Y., Maturana, H. R., McCullogh, W. S., Pitts, W. H. (1959). What the frog’s eye tells the frog’s eye. Proceeding of the Institute of Radio Engineering, 47, 1940-1941. Levelt, W. J. M. (1983). Monitoring and self-repair in speech. Cognition, 14, 41-104. Levelt, W. J. M. (1989). Speaking: From intention to articulation. Cambridge, MA: The MIT Press. Levelt, W. J. M. (2001). Spoken word production: A theory of lexical access. PNAS, 98, 13464-13471. Levelt, W. J. M., Roelofs, A., Meyer, A. S. (1999). A theory of lexical access in speech production. Behavioral and Brain Sciences, 22, 1-38. Levine, G., Parkinson, S. (1994). Experimental methods in psychology. Hillsdale, NJ: Erlbaum. Levine, M. W., Schefner, J. M. (1981). Fundamentals of sensation and perception. London: Adison-Wesley. Lewicka, M. (1993). Aktor czy obserwator: Psychologiczne mechanizmy odchyleń od racjonalności w myśleniu potocznym. Warszawa-Olsztyn: PTP. Lewicka, M. (2000). Myślenie i rozumowanie. W: J. Strelau (red.), Psychologia. Podręcznik akademicki (t. 2, s. 275-316). Gdańsk: GWP. Lewicki, A. (1960). Rola abstrakcji pozytywnej i negatywnej w procesie uczenia się nowych pojęć. Studia Psychologiczne, III, 5-51. Lewicki, A. (1968). Informacja i percepcja w procesie uczenia się nowych pojęć. Studia Psychologiczne, IX, 22-54. Lewis, C. H., Anderson, J. R. (1976). Interference with real world knowledge. Cognitive Psychology, 8, 311-335. Lindsay, D. S., Johnson, M. K. (1989). The eyewitness suggestibility effect and memory for source. Memory and Cognition, 17, 349-358. Linton, M. (1975). Memory for real-world events. W: D. A. Norman, D. E. Rumelhart (red.), Explorations in cognition (s. 376-404). San Francisco: Freeman. List, J. A. (2004). Neoclassical theory versus prospect theory. Evidence from the marketplace. Econometrica, 72, 615-625.
692
Bibliografia
Lobaugh, N. J., Cole, S., Rovet, J. F. (1998). Visual search for features and conjunctions in development. Canadian Journal of Experimental Psychology, 52, 201-212. Lockhart, R. S, Craik, F. I. M. (1990). Levels of processing: A retrospective commenta ry on a framework for memory research. Canadian Journal of Psychology, 44, 87-122. Loeb, M., Binford, J. R. (1968). Variation in performance on auditory and visual monitoring tasks as a function of signal and stimulus frequencies. Perception and Psychophysics, 4, 361-366. Loftus, E. F. (1973). Category, dominance, instance dominance, and categorisation time. Journal of Experimental Psychology, 97, 70-74. Loftus, E. F. (1975). Leading questions and the eyewitness report. Cognitive Psychology, 7, 560-572. Loftus, E. F. (1979). Reactions to blatantly contradictory information. Memory and Cognition, 7, 368-374. Loftus, E. F. (1996). Memory distortion and false memory creation. Bulletin of the American Academy of Psychiatry and the Law, 24, 281-295. Loftus, E. F., Burns, T. E. (1982). Mental shock can produce retrograde amnesia. Memory and Cognition, 10, 318-323, Loftus, E. F., Palmer, J. C. (1974). Reconstruction of automobile destruction: An example of the interaction between language and memory. Journal of Verbal Learning and Verbal Behavior, 13, 585-589. Loftus, E. F., Pickrell, J. E. (1995). The formation of false memories. Psychiatric Annals, 25, 720-725. Loftus, G. R., Loftus, E. F. (1976). Humen memory: The processing of information. Hillsdale, NJ: Erlbaum. Logan, G. D. (1980). Attention and automaticity in Stroop and priming task: Theory and data. Cognitive Psychology, 12, 523-553. Logan, G. D. (1982). On the ability to inhibit complex actions: A stop signal-study of typewriting. Journal of Experimental Psychology: Human Perception and Perfor mance, 87, 778-792. Logan, G.D. (1985). On the ability to inhibit simple thoughts and actions: Stop signal studies in repetition priming. Journal of Experimental Psychology: Learning, Memory, and Cognition, 11, 675-691. Logan, G. D. (1988). Toward an instance theory of automatization. Psychological Review, 95, 492-527. Logan, G. D. (1990). Repetition priming and automaticity: Common underlying me chanisms. Cognitive Psychology, 22, 1-35. Logan, G. D. (1992). Shapes of reaction-time distributions and shapes of learning curves: A test of the instance theory of automaticity. Journal of Experimental Psychology. Learning, Memory, and Cognition, 18, 883-914. Logan, G. D. (2002). An instance theory of attention and memory. Psychological Review, 109, 376-400. Logan, G. D., Burkell, J. (1986). Dependence and independence in responding to double stimulation: A comparison of stop, change, and dual-task paradigm. Journal of Experimental Psychology: Human Perception and Performance, 12, 549-563. Logan, G. D., Cowan, W. B. (1984). On the ability to inhibit thought and action: A theory of an act of control. Psychological Review, 91, 295-327. Logan, G. D., Etherton, J. L. (1994). What is learned during automatization? The role of attention in constructing an instance. Journal of Experimental Psychology. Learning, Memory, and Cognition, 20, 1022-1050. Logan, G. D., Klapp, S. T. (1991). Automatizing alphabet arithmetic: I. Is extended practice necessary to produce automaticity? Journal of Experimental Psychology. Learning, Memory, and Cognition, 17, 179-195.
Bibliografia
69 3
Logan, G. D., Taylor, S. E., Etherton, J. L. (1996). Attention in the Acquisition and Expression of Automaticity. Journal of Experimental Psychology. Learning, Memory, and Cognition, 22, 320-338. Logan, G. D., Zbrodoff, N. J. (1998). Strop-type interferencje: congruity effects in color naming with typewritten responses. Journal of Experimental Psychology. Human Perception and Performance, 24, 978-992. Logan, G. D, Zbrodoff, N. J., Williamson, J. (1984). Strategies in the color-word Stroop task. Bulletin of the Psychonomic Society, 22, 135-138. Logie, R. H. (1986). Visuo-spatial processes in working memory. Quarterly Journal of Experimental Psychology, 38A, 229-247. Logie, R. H. (1995). Visuo-spatial working memory. Hillsdale, NJ, England: Lawrence Erlbaum Associates. Logie, R. H., Della Sala, S., Wynn, V., Baddeley, A. D. (2000). Visual similarity effects in immediate verbal serial recall. Quarterly Journal of Experimental Psychology, 53A(3), 626-646. Logie, R. H., Marchetti, C. (1991). Visuo-spatial working memory: visual, spatial or central executive? W: R. H. Logie, M. Denis (red.), Mental Images in Human Cognition (s. 105-115). Amsterdam: Elsevier. Logie, R. H., Zucco, G. M., Baddeley, A. D. (1990). Inference with visual short-term memory. Acta Psychological, 75, 55-74. Lorch, R. E (1982). Priming and search processes in semantic memory: A test of three models of spreading activation. Journal of Verbal Learning and Verbal Behavior, 21, 468-492. Lorenz, K. (1977). Odwrotna strona zwierciadła: Próba historii naturalnej ludzkiego poznania (przel. K. Wolicki). Warszawa: PIW. Lowe, D. G. (1979). Strategies, context, and mechanism of response inhibition. Memory and Cognition, 7, 382-389. Luce, R. D. (1960). Developments in mathematical psychology. Glencoe: The Free Press. Luchins, A. S. (1942). Mechanization in problem solving - the effect of Einstellung. Psychological Monographs, 54. Luchins, A. S., Luchins E. H. (1959). Rigidity of behavior: A variational approach to the effect of Einstellung. Oxford, England: University Oregon Press. Luchins, A. S., Luchins, E. H. (1982). Einstellung effects in learning by repetition: Sex differences. Genetic Psychology Monographs, 106, 319-342. Luck, S. J., Vogel, E. K. (1997). The capacity of visual working memory for features and conjunction. Nature, 390, 279-282. Luh, C. W. (1922). The conditions of retention. Psychology Monograph, 31, 1-87. Lustig, C., Hasher, L. (2001). Implicit memory is vulnerable to proactive interference. Psychological Science, 12, 408-412. Lysak, H., Rule, B. G., Dobbs, A. R. (1989). Conceptions of aggression: Prototype or defining features. Personality and Social Psychology Bulletin, 15, 233-243. MacFarland, B. P., Halcomb, C. G. (1970). Expectancy and stimulus generalization in vigilance. Perceptual and motor Skills, 30, 147-151. Mack, A., Rock, I. (1998). Inattentional blindness: perception without attention. W: R. Wright (red.), Visual Attention (s. 55-76). New York, Oxford: Oxford Uni versity Press. Mack, A., Tang, B., Tuma, R., Kahn, S., Rock, I. (1992). Perceptual organization and attention. Cognitive Psychology, 24, 475-501. MacKay, D.G. (1973). Aspects of the theory of comprehension, memory, and attention. Quarterly Journal of Experimental Psychology, 25, 22-40. MacKay, D. G. (1998). Stage theories refuted. W: W. Bechtel, G. Graham (red.), A companion to cognitive science (s. 671-678). Oxford, UK: Blackwell Publi shers.
694
Bibliografia
Mackiewicz, R. (2000). R ozu m o w a n ie w aru n kow e w interpretacji teorii modeli um ysłow ych. Lublin: RW KUL. Mackinnon, A. J., Wearing, A. J. (1985). Systems analysis and dynamie decision making. Acta Psychologica, 58, 159-172. Mackworth, J. F., Taylor, M. M. (1963). The d’measure of signal probability in vigilance like situations. Canadian Journal of Psychology, 17, 302-325. Mackworth, N. H. (1948). The breakdown of vigilance during prolonged visual search. Quarterly Journal of Experimental Psychology, 1, 6-21. Mackworth, N. H. (1950). Researches on the measurement of human performance. Medical Research Council, Special Report No. 268. Mackworth, N. H. (1957). Some factors affecting vigilance. Advancements in Science, 53, 389-393. MacLeod, C. M. (1975). Release from proactive interference: insufficiency of an attentional account. American Journal of Psychology, 88, 459-465. MacLeod, C. M. (1986). A replication of the Stroop effect. Unpublished raw data. MacLeod, C. M. (1991). Half a century of research on the Stroop effect: An integrative review. Psychological Bulletin, 109, 163-203. MacLeod, C. M. (1992). The Stroop task: The „gold standard” of attentional measures. Journal of Experimental Psychology: General, 121, 12-14. MacLeod, C. M., Hunt, E. B., Mathews, N. N. (1978). Individual differences in the verification of sentence-picture relationships. Journal of Verbal Learning and Verbal Behavior, 17, 493-507. McConkie, G. W. (1983). Eye movements and perception during reading. W: K. Rayner (red.), Eye movements in reading: Perceptual and language processes. New York: Academic Press. Maier, F. H., Strohhecker, J. (1996) Do management flight simulators really enhance decision effectiveness? W: The Proceedings of the 1996 International System Dynamics Conference, Cambridge, Massachusets. Maier, N. R. F. (1931). Reasoning and learning. Psychological Review, 38, 332-346. Malone, D. R., Morris, H. H., Kay, M. C., Levine, H. S. (1982). Prosopagnosia: A double dissociation between the recognition of familiar and unfamiliar faces. Journal of Neurology, Neurosurgery and Psychiatry, 45, 820-822. Manktelow, K. (1999). Reasoning and thinking. Hove, England: Psychology Press/Taylor and Francis (UK). Marcel, A. J. (1983). Conscious and unconscious perception. An approach to the relation between phenomenal experience and perceptual processes. Cognitive Psychology, 15, 238-300. Marcus, S. L., Rips, L. J. (1979). Conditional reasoning. Journal of Verbal Learning and Verbal Behavior, 18, 199-223. Markman, A. B. (2002). Knowledge representation. W: H. Pashler, D. Medin (red.), Steven’s handbook of experimental psychology: Memory and cognitive processes (t. 2, s. 165-208). New York, NY, US: J. Wiley. Markovits, H., Doyon, C., Simoneau, M. (2002). Individual differences in working memory and conditional reasoning with concrete and abstract content. Thinking and Reasoning, 8, 97-108. Marmor, G. S., Zaback, L. A. (1976). Mental rotation by the blind: Does mental rotation depend on visual imagery. Journal of Experimental psychology: Human Perception and Performance, 2, 515-521. Marr, D. (1976). Early processing of visual information. Philosophical Transactions of the Royal Society (London), B275, 483-524. Marr, D. (1982). Vision. San Francisco: Freeman. Marr, D., Hildreth, E. (1980). Theory of edge detection. Proceedings of the Royal Society of London, B207, 187-217.
Bibliografia
695
Marr, D., Nishihara, H. K. (1978). Representation and recognition of the spatial orga nization of three-dimensional shapes. Proceedings of the Royal Society of London (seria B), 269-294. Marsh, R. L., Hicks, J. L. (1998). Event-based prospective memory and executive control in working memory. Journal of Experimental Psychology: Learning, Memory, and Cognition, 24, 336-349. Marsh, R. L., Hicks, J. L., Landau, J. D. (1998). An investigation of everyday prospective memory. Memory and Cognition, 26, 633-643. Marslen-Wilson, W., (1987). Functional parallelism in spoken word recognition. Cognition, 25, 71-102. Marslen-Wilson, W., Tyler, L. (1980). The temporal structure of spoken language understanding. Cognition, 8, 1-71. Maruszewski, T. (1983). Analiza procesów poznawczych jednostki w świetle idealizacyjnej teorii nauki. Poznań: Wyd. Nauk. UAM. Maruszewski, T. (1996). Psychologia poznaw cza. Warszawa: Polskie Towarzystwo Semiotyczne. Maruszewski, T. (2001). Psychologia poznania: Sposoby rozumienia siebie i świata. Gdańsk: GWP. Maruszewski, T. (2005). Pamięć autobiograficzna. Gdańsk: GWP. Maruszewski, T., Ścigała E. (1998). Emocje - aleksytym ia - poznanie. Poznań: Humaniora. Mathews, N. N., Hunt, E. B., MacLeod, C. M. (1980). Strategy choice and strategy training in sentence-picture verification. Journal of Verbal Learning and Verbal Behavior, 19, 531-548. Mathews, R. C., Buss, R. R., Stanley, W. B., Blanchard-Fields, F., Cho, J. R., Druhan, B. (1989). Role of implicit and explicit processes in learning from examples: A synergistic effect. Journal of Experimental Psychology: Learning, Memory, and Cognition, 15, 1083-1100. Matlin, M. W. (1994). Cognition (wyd. 3). Fort Worth, TX: Harcourt Brace Publishers. May C. P., Kane, M. J., Hasher, L. Determinants of negative priming. Psychological Bulletin, 118(1), 35-54. Mayr, U., Keele, S. (2000). Changing internal constrain on action: the role of back ward inhibition. Journal of Experimental Psychology: General, 129, 4-26. McClelland, J. L., McNaughton, B. L., O’Reilly, R. C. (1995). Why there are com plementary learning systems in the hippocampus and neocortex: Insights from the successes and failures of connectionist models of learning and memory. Psycho logical Review, 102, 419-457. McClelland, J. L., Rumelhart, D. E. (1981). An interactive activation model of context effects in letter perception. Part 1: An account of basic findings. Psychological Review, 88, 375-407. McClelland, J. L., Rumelhart, D. E., the PDP Research Group (1986). Parallel distributed processing: Explorations in the microstructure of cognition, t. 2: Psychological and biological models. Cambridge, MA: MIT Press. McCloskey, M. (1983a), Narve theories of motion. W: D. Gentner, A. L. Stevens (red.), Mental models (s. 299-324). Hillsdale, NJ: Erlbaum. McCloskey, M. (1983b). Intuitive physics. Scientific American, 24, 122-130. McCloskey, M., Glucksberg, S. (1978). Natural categories: Well-defined or fuzzy sets? Memory and Cognition, 6, 462-412. McCloskey, M., Macaruso, P. (1995). Representing and Using Numerical Information. American Psychologist, 50, 351-363. McDaniel, M. A,, Robinson-Riegler, B., Einstein, G. O. (1998). Prospective remembering: Perceptually driven or conceptually driven processes? Memory and Cognition, 26, 121-134.
696
Bibliografia
McErlee, B. (1996). Accesing short-term memory with semantic, and phonological information: A time-course analysis. Memory and Cognition, 24, 173-187. McErlee, B. (1998). Attended and non-attended states in working memory: Accessing categorized structures. Journal of Memory and Language, 38, 225-252. McElree, B., Dosher, B. A. (1989). Serial position and set size in short-term memory: The time course of recognition. Journal of Experimental Psychology: General, 118, 346-373. McElree, B., Dosher, B. A. (1993). Serial retrieval processes in the recovery of order information. Journal of Experimental Psychology: General, 122, 291-315. M cGeoch, J. A., McDonald, W. T. (1931). Meaningful relation and retroactive inhibition. American Journal of Psychology, 43, 579-588 M cGeoch, J. A., Irion, A. L. (1952). The psychology of human learning. Oxford, England: Longmans, Green & Co. McKeithen, K. B.. Reitman, I. S., Rueter. H. H., Hirtle, S. C. (1981). Knowledge orga nization and skill differences in computer programmers. Cognitive Psychology, 13, 307-325. McKoon, G., Ratcliff, R. (1992). Inference during reading. Psychological Review, 99, 440-466. McLeod, P. (1977). A dual task response modality effect: Support for multiprocessor models of attention. Quarterly Journal of Experimental Psychology, 29, 651-667. McLeod, P., Driver, J. (1993). Filtering and physiology in visual search: A convergence of behavioural and neurophysiological measures. W: A. Baddeley, L. Weiskrantz (red.), Attention: selection, awareness, and control. A tribute to Donald Broadbent (s. 72-8 6 ). Oxford: Clarendon Press. McLeod, P., Driver, J., Crisp, J. (1988). Visual search for conjunction of movement and form is parallel. Nature, 332, 154-155. McLeod, P., Driver, J., Dienes, Z., Crisp, J. (1991). Filtering by movement in visual search. Journal of Experimental Psychology. Human Perception and Performance, 17, 55-64. McLeod, P., Plunkett, K., Rolls, E. T. (1998). Introduction to connectionist modelling of cognitive processes. Oxford, UK: Oxford University Press. McNamara, T. P., Sternberg, R. J. (1983). Mental models of word meaning. Journal of Verbal Learning and Verbal Behavior, 22, 449-474. McNeil, B. J., Pauker, S. G., Sox, H. C., Tversky, A. (1982). On the elicitation of preferences for alternative therapies. N ew England Journal of Medicine, 306, 1259-1262. Medin, D. L. Ross, B. H. Markman, A. B. (2004). Cognitive psychology (wyd. 4). New York: Wiley. Medin, D. L., Schaffer, M. M. (1978). Context theory of classification learning. Psychological Review, 85, 207-238. Mednick, S. A., Mednick, M. T. (1962). A theory and test of creative thought. W: G .N ielson (red.), Proceedings of the XIV International Congress of Applied Psychology Industrial and Business Psychology (t. 5, s. 40-47). Oxford, England: Munksgaard. Mednick, S. A., Mednick, M. T. (1964). An associative interpretation of the creative process. W: C. W. Taylor (red.), Widening horizons in creativity. New York: Wiley. Meiran, N. (1996). Reconfiguration of processing mode prior to task performance. Journal of Experimental Psychology: Learning, Memory, and Cognition, 26, 1124-1140. Meiran, N. (2000). Reconfiguration of stimulus tas set and response task sets during task switching. W: S. Monsell, J. Driver (red.), Control of Cognitive Processes. Attention and Performance (t. XVIII, s. 377-399). Cambridge: MIT Press. Meiran, N., Chover, Z., Sapir, A. (2000). Component processes in task switching. Cognitive Psychology, 41, 211-253.
Bibliografia
69 7
Melton, A. W., Lackum, W. J. V. (1941). Retroactive and proactive inhibition in retention: evidence for a two-factor theory of retroactive inhibition. American Journal of Psychology, 54, 157-173. Mendelsohn, G. (1976). Associative and attentional processes in creative performance. Journal of Personality, 44, 341-369. Mendelsohn, G. A., Griswold, B. B. (1964). Differential use of incidental stimuli in problem solving as a function of creativity. Journal of Abnormal and Social Psychology, 68, 431-436. Mendelsohn, G. A., Griswold, B. B. (1966). A ssessed creative potential, vocabulary level, and sex as predictors, of the use of incidental cues in verbal problem solving. Journal of Personality and Social Psychology, 4, 423-431. Mendelsohn, G. A., Liedholm, E. P. (1972). Individual differences and the role of attention in the use of cues in verbal problem solving. Journal of Personality, 40, 226-241. Merikle, P. M., Joordens, S. (1997). Parallels between perception without attention and perception without awareness. Consciousness and Cognition: An International Journal, 6, 219-236. Mervis, C. B. (1983). Acquisition of lexicon. Contemporary Educational Psychology, 8, 210-236. Mervis, C. B., Pani, J. R. (1980). Acquisition of basic object categories. Cognitive Psychology, 12, 496-522. Metcalfe, J. (1986). Premonitions of Insight Predict Impending Error. Journal of Experimental Psychology: Learning, Memory, and Cognition, 12, 623-634. Metcalfe, J., Wiebe, D. (1987). Intuition in insight and non-insight problem solving. Memory and Cognition, 15, 238-246. Meulemans, T., Van der Linden, M. (1997). Does the artificial grammar learning paradigm involve the acquisition of complex information? Psychologica Belgica, 57, 69-88. Meyer, D. E., Irwin, D. E., Osman, A. M., Kounios, J. (1988). The dynamics of cognition and action: Mental processes inferred from speed-accuracy decomposition. Psycho logical Review, 95, 183-237. Michaels, C. F., Corello, C. (1985). Direct perception. Englewood Cliffs: Prentice Hall. Miller, G. A. (1953). What is information measurement? American Psychologist, 17, 748-762. Milner, B. (1971). Interhemispheric differences in the localization of psychological processes in man. British Medical Bulletin, 27, 272-277. Miller, G. A. (1956). The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological Review, 65, 81-97. Miller, G. A., Galanter, E., Pribram, K. H. (1980). Plany i struktura zachowania (tlum. A. Grzybowska, A. Szewczyk). Warszawa: PWN. Minsky, M. L. (1975). A framework for representing knowledge. W: P. H. Winston (red.), The psychology of computer vision. New York: McGraw-Hill. Miyake, A., Emmerson, M. J., Friedman, N. P. (2000). Assessm ent of executive functions in clinical settings. Seminars in Speech and Language, 21, 169-183. Moore, D. R. (1987). Physiology of higher auditory system. British Medical Bulletin, 45, 856-870. Moray, N. (1959). Attention in dichotic listening: Affective cues and the influence of instructions. Quarterly Journal of Experimental Psychology, 11, 56-60. Moray, N., Fitter, M., Ostry, D., Favreau, D., Nagy, V. (1976). Attention to pure tones. Quarterly Journal of Experimental Psychology, 28, 271-283. Morris, C. D., Brandsford, J. D., Franks, J. J. (1977). Levels of processing versus transfer appropriate processing. Journal of Verbal Learning and Verbal Behavior, 16, 519-533.
698
Bibliografia
Mowrer, O. H. (1960). Learning theory and the symbolic process. New York: Wiley. Moyer, R. S., Dumais, S. T. (1978). Mental comparison. W: G. Bower (red.), The psychology of learning and m otivation, 12, 117-155. Moyer, R. S., Landauer, T. K. (1967). Time required for judgments of numerical inequality. Nature, 215, 1519-1520. Mumford, D. M. (1999). Analogies. W: M. A. Runco, S. Pritzker (red.), Encyclopedia of creativity (t. 1, s. 71-78). New York: Academic Press. Mumford, M. D., Reiter-Palmon, R., Redmond, M. R. (1994). Problem construction and cognition: Applying problem representations in ill-defined domains. W: M. A. Runco (red.), Problem finding, problem solving, and creativity (s. 3-39). Westport, CT, US: Ablex Publishing. Murdock, B. B. Jr. (1961). Short-term retention of single paired associates. Psychological Reports, 8. Murphy, G. L., Wiśniewski, E. J. (1985). Feature correlations in conceptual representa tions. Unpublished manuscripts: Brown University. Murphy, G. L., Medin, D. L (1985). The role of theories in conceptual coherence. Psychological Review, 92, 289-315. Murphy, S. T., Zajonc R. B. (1994). Afekt, poznanie i świadomość: rola afektywnych bodźców poprzedzających przy optymalnych i suboptymalnych ekspozycjach. Przegląd Psychologiczny, 37, 261-299. Murrell, G. A. (1975). A reappraisal of artificial signals as an aid to a visual monitoring task. Ergonomics, 18, 693-700. Myers, D. G. (2002). Intuition: Its powers and perils. New Haven, CT: Yale University Press. Myiake, A., Friednam, N. P., Emerson, M. J., Witzik, A. H., Howerter, A. (2000). The unity and diversity of executive functions and their contribution to complex ‘frontal lobe’ tasks: a latent variable analysis. Cognitive Psychology, 41, 49-100. Mynatt, C. R., Doherty, M. E., Tweney, R. D. (1977). Confirmation bias in a simulated research environment: An experimental study of scientific inference. Quarterly Journal of Experimental Psychology, 29, 85-95. Nadel, L. (1992). Multiple memory systems: what and why. Journal of Cognitive Neuroscience, 4, 179-188. Najder, K. (1992/1997). Wprowadzenie do teorii pamięci. W: M. Materska, T. Tyszka (red.), Psychologia i poznanie (s. 129-163). Warszawa: PWN. Nakayama, K., Silverman, G. H. (1986). Serial and parallel processing of visual feature conjunctions. Nature, 320, 264-265. Navon, D. (1977). Forest before trees: The precedence of global features in visual perception. Cognitive Psychology, 9, 353-383. Navon, D. (1984). Resources - a theoretical soup stone? Psychological Review, 91, 216-234. Navon, D. (1985). Attention division or attention sharing? W: M. I. Posner, O. S. M. Marin (red.), Attention and performance (t. XI). New Jersey: LEA. Navon, D., Gopher, D. (1979). On the economy of the human-processing system. Psychological Review, 86, 214-255. Neely, J. H. (1976). Semantic priming and retrieval from lexical memory: evidence for facilitatory and inhibitory processes. Memory and Cognition, 4, 648-654. Neely, J. H. (1977). Semantic priming and retrival form lexical memory: A role of inhibitioless spreading activation and limited-capacity attention. Journal of Experimental Psychology: General, 106, 226-254. Neill, W. T. (1977). Inhibitory and facilitatory processes in selective attention. Journal of Experimental Psychology: Human Perception and Performance, 2, 326-336. Neill, W. T. (1982). The suppression of distracting information in selective attention. Paper presented at the meeting of Southeastern Psychological Association, LA: New Orleans.
Bibliografia
699
Neill, W. T., Valdes, L. A. (1992). Persistence of negative priming: Steady state or decay? Journal of Experimental Psychology: Learning, Memory, and Cognition, 18, 565576. Neill, W. T., Westberry, R. L. (1987). Selective attention and the suppression of cognitive noise. Journal of Experimental Psychology. Learning, Memory, and Cognition, 13, 327-334. Neisser, U. (1967). Cognitive psychology. New York: Appleton-Century-Crofts. Neisser, U. (1976). Cognition and reality: Principles and implications of cognitive psychology. New York: W. H. Freeman. Neumann, P. G. (1974). An attribute frequency model for the abstraction of prototypes. Memory and Cognition, 2, 241-248. Neumann, J. V. von, Morgenstern, O. (1944). Theory of games and economic behavior. Princeton, NJ: Princeton University Press. Newell, A., Shaw, J. C., Simon, H. A. (1958). Elements of a theory of human problem solving. Psychological Review, 65, 151-166. Newell, A., Simon, H. A. (1961). GPS, a program that simulates human thought. W: H. Billing (red.), Lerende Automaten (s. 109-124). Munich: R. Oldenbourg. Newell, A., Simon, H. A. (1972). Human problem solving. Englewood Cliffs: Prentice Hall. Newport, E. L., Bellugi, U. (1978). Linguistic expression of category levels in a visual gestural language. W: E. Rosch, B.B. Lloyd (red.), Cognition and categorization. Hillsdale: LEA. Newstead, S. E., Pollard, P., Evans, J. S. (1992). The source of belief bias effects in syllogistic reasoning. Cognition, 45, 257-284 Newstead, S. E., Ellis, M. Ch., Evans, J. St. B., Dennis, I. (1997). Conditional reasoning with realistic material. Thinking and Reasoning, 3, 49-76 Nęcka, E. (1983). Przyczynek do teorii intuicji. Studia Filozoficzne, 209 (nr 4), 95-115. Nęcka, E. (1984). Poznawcze funkcje analogii. Studia Filozoficzne, 6, 169-186. Nęcka, E. (1987), Czego nie wiemy o twórczości? Przegląd Psychologiczny, 30, 219-243. Nęcka, E. (1989). Intuition versus logic in probability judgment. Zeszyty N aukowe UJ, Prace Psychologiczne, z. 6, 127-144. Nęcka, E. (1992/1997). Myślenie. W: M. Materska, T. Tyszka (red.), Psychologia i pozna nie (s. 224-232). Warszawa: PWN. Nęcka, E. (1994a). Inteligencja i procesy poznawcze. Kraków: Oficyna Wyd. „Impuls”. Nęcka, E. (1994b). TroP... Twórcze R ozw iązyw anie Problemów. Kraków: Oficyna Wyd. „Impuls”. Nęcka, E. (1995). Proces twórczy i jego ograniczenia. Kraków: Oficyna Wyd. „Impuls”. Nęcka, E. (1996). Uniwersalne błędy poznawcze. W: K. Pacławska (red.), Tradycja i wyzwania (s. 167-182). Kraków: TAiWPN Universitas. Nęcka, E. (2000). Pobudzenie intelektu. Zarys formalnej teorii inteligencji. Universitas: Kraków. Nęcka, E. (2001). Psychologia twórczości. Gdańsk: GWP. Nęcka, E. (2002). Kontrola, świadomość, automatyczność: Próba analizy pojęciowej. W: R. K. Ohme (red.), Natura autom atyzm ów (s. 163-168). Warszawa: IP PAN Szkoła Wyższa Psychologii Społecznej. Nęcka, E. (2004). Mamy homunculusa? Studia Psychologiczne, 42, 7-10. Nęcka, E., Machera, M., Miklas, M. (1992). Incidental learning, intelligence, and verbal ability. Learning and Instruction, 2, 141-153. Nęcka, E., Orzechowski, J. (2005). Higher-order cognition and intelligence. W: R. J. Sternberg, J. E. Pretz (red.), Cognition and intelligence: Identifying the mechanisms of the mind (s. 122-141). N ew York, NY, US: Cambridge University Press. Nęcka, E., Orzechowski, J., Słabosz, A., Szymura, B. (2005). Trening twórczości. Gdańsk: GWP.
700
Bibliografia
Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. R eview of General Psychology, 2, 175-220. Niedźwieńska, A. (2003). Czas we wspomnieniach autobiograficznych. W: K. Krzyżewski (red.). Doświadczenie indywidualne. Szczególny rodzaj poznania i wyróżniona postać pamięci, (s. 185-208). Kraków: Wydawnictwo UJ. Niedźwieńska, A. (2004). Poznawcze mechanizmy zniekształceń w pamięci zdarzeń. Kraków: Wydawnictwo UJ. Niewiadomska, G. (2000). W poszukiwaniu molekularnych mechanizmów pamięci. W: T. Górska, A. Grabowska, J. Zagrodzka (red.). Mózg a zachowanie, (s. 269-297). Warszawa: Wydawnictwo Naukowe PWN. Nigg, J. T. (2000). On inhibition/disinhibition in developmental psychology: Views form cognitive and personality psychology and a working inhibition taxonomy. Psycho logical Bulletin, 126, 220-246. Ninio, A., Kahneman, D. (1974). Reaction time in focused and in divided attention. Journal of Experimental Psychology, 103, 394-399. Nisbett, R. E., Krantz, D. H., Jepson, C., Kunda, Z. (1983). The use of statistical heuristics in everyday inductive reasoning. Psychological Review, 90, 339-363. Nissen, M. J., Bullemer, P. (1987). Attentional requirements of learning: Evidence from performance measures. Cognitive Psychology, 19, 1-32. Noice, T., Noice, H. (2002). Very long-term recall and recognition of well-learned material. Applied Cognitive Psychology, 16, 259-272. Norman, D. A. (1970). Comments on the information structure in memory. Acta Psychologica, 33, 293-303. Norman, D. A., Bobrow D. G. (1975). On data-limited and resource-limited processes. Cognitive Psychology, 7, 44-64. Norman, D. A., Sahallice, T. (1986). Attention to action: Willed and automatic control of behavior. W: R. Davidson, G. Schwartz, D. Shapiro (red.), Consciousness and self regulation: Advances in research and theory (s. 1-18). New York: Plenum. Norman, G. R., Brooks, L. R., Allen, S. W. (1989). Recall by expert medical practitioners and novices as a record of processing attention. Journal of Experimental Psychology: Learning, Memory, and Cognition, 15, 1166-1174. Nosal, Cz. S. (1990). Psychologiczne modele umysłu. Warszawa: PWN. Novick, L. R. (1988). Analogical transfer, problem similarity, and expertise. Journal of Experimental Psychology: Learning, Memory, and Cognition, 14, 510-520. Nunes, T., Schliemann, A. D., Carraher, D. W. (1993). Street mathematics and school mathematics. Cambridge, UK: Cambridge University Press. Oakhill, J. V., Johnson-Laird, P. N. (1985). The effects of belief on the spontaneous production of syllogistic conclusions. Quarterly Journal of Experimental Psychology, 37, 553-569. Oakhill, J. V., Johnson-Laird, P. N., Garnham, A. (1989). Believability and syllogistic reasoning. Cognition, 31, 117-140 Oaksford, M., Chater, N. (1994). A rational analysis of the selection task as optimal data selection. Psychological Review, 101, 608-631. Oberauer, K., Kliegl, R. (2001). Beyond resources: Formal models of complexity effects and age differences in working memory. European Journal of Cognitive Psychology, 13, 187-216. Oberauer, K., Süß, H.-M., Wilhelm, O., Wittman, W. W. (2003). The multiple faces of working memory: Storage, processing, supervision, and coordination. Intelligence, 31, 167-194. Obuchowski, K. (1970). Kody ońentacji i struktura procesów emocjonalnych. Warszawa: PWN. Obuchowski, K. (2004). Kody umysłu i emocje. Łódź: Wyższa Szkoła HumanistycznoEkonomiczna.
Bibliografia
701
Ohlsson, S. (1984a). Restructuring revisted: Summary and critque of the gestalt theory of problem solving. Scandinavian Journal of Psychology, 25, 65-78. Ohlsson, S. (1984b). Restructuring revisted: An information-processing theory of restructuring and insight. Scandinavian Journal of Psychology, 2 5 ,117-129. Ohme, R. K. (2003). Podprogowe informacje mimiczne. Warszawa: Wyd. IP PAN. Ogden, C. K., Richards, I. A. (1923). The meaning of meaning. London: Kegan, Paul, Trench, Trubner. Olivie, T. (2004). Working memory in writing: empirical evidence from the dual task technique. European Psychologist, 9, 33-42. O’Reagan, J. K., Jacobs, A. M. (1992). Optimal viewing position effect in word re cognition: A challenge to current theory. Journal of Experimental Psychology: Human Perception and Performance, 18, 185-197. Osherson, D., Smith, E. E. (1981). On the adequacy of prototype theory as a theory of concepts. Cognition, 9, 35-58. Ostry, D., Moray, N., Marks, G. (1976). Attention, practice and semantic targets. Journal of Experimental Psychology. Human Perception and Performance, 2, 326-336. Otten, L., Rugg, M. (2001). Tasks-dependency of the neural correlates of episodic encoding as measured by fMRI. Cerebral Cortex, 11, 1150-1160. Owen, A. M. (2000). Human Brain Function. Journal of Psychophysiology, 14, 128-129. Owen, A. M., Roberts, A. C., Hodges, J. R., Summers, B. A., Polkey, C. E., Robbins, T. W. (1993). Contrasting mechanisms of impaired attentional set-shifting in patients with frontal lobe damage or Parkinson’s disease. Brain, 116, 1159-1175. Paivio, A. (1969). Mental imagery in associative learning and memory. Psychological Review, 76, 241-263. Paivio, A. (1971). Imagery and Verbal Processes. N ew York: Holt, Rinehart and Winston. Paivio, A. (1986), Mental representations. A dual coding approach. New York: Oxford University Press. Paivio, A., Csapo, K. (1969). Concrete-image and verbal memory codes. Journal of Experimental Psychology, 80, 279-285. Paivio, A., Csapo, K. (1973). Picture superiority in free recall: Imagery or dual coding? Cognitive Psychology, 5, 176-206. Paivio, A., Yuille, J. C., Madigan, S. A. (1968). Concreteness, imagery and meaningfulness values for 925 nouns. Journal of Experimental Psychology: Monographs, 78. Paivio, A., Yuille, J. C., Rogers, T. B. (1969). Noun imagery and meaningfulness in free and serial recall. Journal of Experimental Psychology, 79, 509-514. Palmer, S. E. (1975). The effects of contextual scenes on the identification of objects. Memory and Cognition, 5, 519-526. Palmer, S. E. (1978). Fundamental aspects of cognitive representation. W: E. Rosch, B. Lloyd (red.), Cognition and Categorization. Hillsdale, NJ: Erlbaum. Parasuraman, R. (1976). Consistency of individual differences in human vigilance perfor mance: An abilities classification analysis. Journal of Applied Psychology, 61, 486-492. Parasuraman, R. (1983). Vigilance, arousal and the brain. W: A. Gale, J. Edwards (red.), Physiological correlates of human performance: Attention and performance, (s. 3 5 -5 5 ). London: Academic. Parasuraman, R., Davies, D, R. (1976). Decision theory analysis of response latencies invigilance. Journal of Experimental psychology: Human Perception and Perfor mance, 2, 569-582. Pascual-Loene, J. (1990). An essay on wisdom: Toward organismic processes that make it possible. W: R. J. Sternberg (red.), Wisdom: Its nature, origins, and development (s. 279-313). New York: Cambridge University Press. Pashler, H. (1992). Dual-task interference and elementary mental mechanisms. W: D. E. Meyer, S. Kornblum (red.), Attention and performance (t. XIV). Cambridge: MIT Press.
702
Bibliografia
Pashler, H. (1994). Graded capacity-sharing in dual-task interference? Journal of Experimental Psychology. Human Perception and Performance, 20, 330-342. Pashler, H. (2000). Task switching and multitask performance. W: S. Monsell, J. Driver (red.), Control of cognitive processes. Attention and performance (t. XVIII, s. 277-3 0 7 ). Cambridge: MIT Press. Pawlow, I. P. (1990). Odpowiedź fizjologa psychologom i inne prace (przel. L. Skar żyński). Warszawa: Wyd. Nauk. PWN. Payne, J. W. E. (1976). Task complexity and contingent processing in decision making: An information search and protocol analysis. Organizational Behavior and Human Performance, 16, 366-387. Payne, J. W., Bettman, J. R., Johnson, E. J. (1988). Adaptive strategy selection in decision making. Journal of Experimental Psychology: Learning, Memory, and Cognition, 14, 534-552. Peres, M., Van De Moortele, P. F., Pierard, Ch. (2000). Functional magnetic resonance imaging of mental strategy in a simulated aviation performance task. Aviation, Space, and Environmental Medicine, 71, 1218-1231. Perfect, T. J., Hollins, T. S. (1996) Predictive feeling of knowing judgements and postdictive confidence judgements in eyewitness memory and general knowledge. Applied Cognitive Psychology, 10, 371-382, Perfect, T. J., Moulin, C. J. A., Conway, M. A., Perry, E. (2002). Assessing the inhibitory account of retrieval-induced forgetting with implicit-memory tests. Journal of Experimental Psychology: Learning, Memory, and Cognition, 28, 1111-1119. Perkins, D. N. (1981). The mind's best work. Cambridge, MA: Harvard University Press. Perkins, D. N., Salomon, G. (1987). Transfer and teaching thinking. W: D. N. Perkins, J. Lochhead (red.), Thinking: The second international conference (s. 285-303). Hillsdale, NJ, England: Lawrence Erlbaum Associates, Inc. Perruchet, P., Pacteau, C. (1990). Synthetic grammar learning: implicit rule abstraction or explicit fragmentary knowledge? Journal of Experimental Psychology: General, 119, 264-275. Peterson, L. R., Peterson, M. J. (1959). Short-term retention of individual verbal items. Journal of Experimental Psychology, 58, 193-198. Peverly, S. T. (1991). Problems with the knowledge-based explanation of memory and development. R eview of Educational Research, 61, 71-93. Phillips, W. A. (1974). On the distinction between sensory storage and short-term visual memory. Perception and Psychophysics, 16, 283-390. Piaget, J. (1966). Narodziny inteligencji dziecka (przel. M. Przetacznikowa). Warszawa: PWN. Piaget, J. (1972). The psychology of intelligence. Totowa, NJ: Littlefield, Adams. Piaget, J. (1981). Rów noważenie struktur poznawczych. Centralny problem rozwoju (przeł. Z. Zakrzewska). Warszawa: PWN. Pinker, S. (1994). The language instinct: How the mind creates language. New York: William Moro. Pinker, S. (2002). Jak działa um ysł (przel. M. Koraszewska). Warszawa: Książka i Wiedza. Piotrowski, K. T. (2004). Rola centralnego systemu wykonawczego pamięci roboczej w krótkotrwałym przechowywaniu informacji. Badanie metodai generowania interwa łów losowych. Niepublikowana praca doktorska. Kraków: UJ. Polanyi, M. (1966). The tacit dimension. Garden City, NY: Doubleday and Company. Policastro, E. (1995). Creative intuition: An integrative review. Creativity Research Journal, 8, 99-113. Pollard, J., Evans, J. St. B. (1983). The effect of experimentally contrived experience on reasoning performance. Psychological Research, 45, 287-301.
Bibliografia
703
Pollatsek, A., Bolozky, S., Well, A. D., Rayner, K. (1981). Assymetries in the perceptual span for Israeli readers. Brain and Language, 14, 174-180.
Polya, G. (1957). How to Solve the Problem. New York: Wiley. Ponomarev, J. A. (1976). Psikhologiia tvorchestva. Moskva: Izdatelstvo Nauka. Posner, M. I. (1980). Orienting of attention. Quarterly Journal of Experimental Psy chology, 32, 3-25. Posner, M. I. (1994). Attention: The mechanism of consciousness. Psychological Review, 91, 7398-7403. Posner, M. I. (1994/1999). Uwaga. Mechanizmy świadomości. W: Z. Chlewiński (red.), Modele umysłu (s. 197-214). Warszawa: Wyd. Nauk. PWN. Posner, M. I., Cohen, Y. P. C. (1984). Components of visual orienting. W: H. Bouma, D. Bouwhuis (red.), Attention and performance (t, 10, s. 531-556). London: Earlbaum. Posner, M. I., Keele, S. W. (1968). On the genesis of abstract ideas. Journal of Experimental Psychology, 67, 353-363. Posner, M. I., Keele, S. W. (1970). Retention of abstract ideas. Journal of Experimental Psychology, 83, 304-308. Posner, M. I., Mitchel, R. F. (1967). Chronometrie analalysis of classification. Psycho logical Review, 74, 392-409. Posner, M. I., Nissen, M, J., Ogden, W. C. (1978). Attended and unattended processing modes: The role of set for spatial location. W: H. L. Pick, Jr., I. J. Saltzman (red.), Modes of perceiving and processing information. Hilldale, NJ: Erlbaum. Posner, M. I., Raichle, M. E. (1994). Images of mind. New York: Scientific American. Posner, M. I., Snyder, C. R. (1975). Attention and cognitive control. W: R. L. Solso (red.), Information processing and cognition: The Loyola Symposium (s. 55-85). Hillsdale: Lawrence Erlbaum. Pothos, E. M., Bailey, T. M. (2000). The role of similarity in artificial grammar learning. Journal of Experimental Psychology: Learning, Memory, and Cognition, 26, 8 4 7 862. Prabhakaran, V., Narayanan, K., Zhao, Z., Gabrielli, J. D. E. (2000). Integration of di verse information in working memory within the frontal lobe. Nature Neuroscience, 3, 85-91. Prabhakaran, V., Smith, J. A. L., Desmond, J. E., Glover, G. H. (1997). Neural substrates of fluid reasoning: An fMRI study of neocortical activation during performance of the Raven’s Progressive Matrices Test. Cognitive Psychology, 33, 43-63. Pretz, J. E., Naples, A. J., Sternberg, R. J. (2003). Recognizing, defining, and representing problems. W: J. E. Davidson, R. J. Sternberg (red.), Psychology of problem solving (s. 3-30). New York, NY, US: Cambridge University Press. Proctor, T. (2002). Twórcze rozwiązywanie problemów (tłum. E. Jusewicz-Kalter). Gdańsk: GWP. Profitt, D. (1999).* Narve physics. W: R. A. Wilson, F. C. Keil (red.), The MIT encyclo pedia of the cognitive sciences (s. 577-579). Cambridge, MA: The MIT Press. Putz-Osterloh, W. (1981). Über die Beziehung zwischen Testintelligenz und Problemlöseerfolg (The relation between test intelligence and problem solving success). Zeitschrift für Psychologie, 189, 79-100. Putz-Osterloh, W. (1983). Über Determinanten komplexer Problemlöseleistungen und Möglichkeiten zu ihrer Erfassung (About some processes determining intelligence in solving a very complex problem). Sprache & Kognition, 2, 100-116. Pylyshyn, Z. W. (1973). What the mind’s eye tells the mind’s brain: A critique of mental imagery. Psychological Bulletin, 80, 1-24. Pylyshyn, Z. W. (1981). The imagery debate: analogue versus tacit knowledge. Psycho logical Review, 88, 16-45. Quillian, M. R. (1968). Semantic memory. W: M. Minsky (red.), Semantic information processing. Cambridge, MA: MIT Press.
704
Bibliografia
Rabbitt, P., Lowe, C., Shilling, V. (2001). Frontal tests and model for cognitive aging. European Journal of Cognitive Psychology, 13, 5 -2 8. Ramachandran, V. S. (1988). Perception of shape from shading. Nature, 331, 163-166. Ransopher, S. B., Thompson, D. N. (1991). Einstellung rigidity, set induction, and problem solving in the elderly. Educational Gerontology, 17, 219-227. Ratcliff, R., Clark, S. E., Shiffrin, R. M. (1990). List-Strength Effect: I. Data and Discussion. Journal of Experimental Psychology: Learning, Memory, and Cognition, 16, 163-178. Ratcliff, R., Murdock, B. B. (1976). Retrieval processes in recognition memory. Psychological Review, 83, 190-214. Rawlings, D. (1985). Two experiments on the relation between psychoticism and response uncertainty in normal subjects. Personality and Individual Differences, 6, 231-236. Ray, J. L., Findley, P. (1984). Open and restricted context sentences and reasoning with conditional propositions. Communication Monographs, 51, 243-252. Rayner, K. (1979). Eye guidance in reading: Fixation locations in words. Perception, 8, 21-30. Rayner, K. (1997). Understanding eye movements in reading. Scientific Studies of Reading, 1, 317-339. Rayner, K., Morris, R. K. (1992). Eye movement control in reeding: Evidence against semantic preprocessing. Journal of Experimental Psychology: Human Perception and Performance, 18, 163-172. Rayner, K., Well, A. D., Pollatsek, A. (1980). Asymmetry of the effective visual field in reading. Perception and Psychophysics, 27, 537-544. Reason, J. (1990). Human error. New York, US: Cambridge University Press. Reber, A. S. (1967). Implicity learning of artificial grammars. Journal of Verbal Learning and Verbal Behavior, 6, 855-863. Reber, A. S. (1968). A perceptual learning analysis of probability learning. Dissertation Abstracts International, 28, 3501-3502. Reber, A. S. (1976). Implicit learning of synthetic languages: The role of instructional set. Journal of Experimental Psychology: Human Learning and Memory, 2, 88-94. Reber, A. S. (1989). Implicit Learning and Tacit Knowledge. Journal of Experimental Psychology: General, 118, 219-235. Reber, A. S. (2000). Slownik psychologiczny Warszawa: Wyd. Nauk. Scholar. Reber, A. S., Kassin, S. M., Lewis, S. (1980). On the relationship between implicit and explicit modes in the learning of a complex rule structure. Journal of Experimental Psychology: Human Learning and Memory, 6, 492-502. Reber, E. S., Reber, A. S. (2005). Slownik psychologii (tlum. B. Janasiewicz-Kruszyriska). Wyd. Nauk. Scholar. Reed, S. K. (1972). Pattern recognition and categorization. Cognitive psychology, 3, 382-4 0 7 . Reed, S. K. (1974). Structural descriptions and the limitations of visual images. Memory and Cognition, 2, 329-336. Reed, S. K. (1988). Cognition: theory and aplications. California: Brooks/Cole Publishing Company. Reed, S. K., Ernst, G. W., Banerji, R. (1974). The role of analogy in transfer between similar problem states. Cognitive Psychology, 6, 436-450. Reder, L. M., Anderson, J. R. (1980). A partial resolution of the paradox of interference: The role of integrating knowledge. Cognitive Psychology, 12, 447-472. Reder, L. M., Ross, B. H. (1983). Integrated knowledge in different tasks: The role of retrieval strategy on fan effects. Journal of Experimental Psychology: Learning, Memory, and Cognition, 9, 55-72.
Bibliografia
705
Reicher, G. M. (1969). Perceptual recognition as a function of meaningfulness of stimulus material. Journal of Experimental Psychology, 81, 274-280.
Reichle, E. D., Carpenter, P. A., Just, M. A. (2000). The neural bases of strategy and skill in sentence-picture verification. Cognitive Psychology, 40, 261-295. Reitan, R. M., Wolfson, D. (1994). A selective and critical review of neuropsychological deficits and the frontal lobes. Neuropsychology Review, 4, 161-198. Reitman, J. S. (1971). Mechanisms of forgetting in short-term memory. Cognitive Psychology, 2, 185-195. Reitman, J. S. (1974). Without surreptitious rehearsal, information in short-term memory decays. Journal of Verbal Learning and Verbal Behavior, 13, 365-377. Reitman, W. R. (1965). Cognition and thought: an information processing approach. England, Oxford: Wiley. Reuter-Lorenz, P. A., Jha, A. P., Rosenquist, J. N. (1996). What is inhibited in inhibition of return? Journal of Experimental Psychology: Human Perception and Performan ce, 22, 367-378. Reynolds, A. G., Flagg, P. W. (1983). Cognitive psychology (wyd. 2). Boston: Little, Brown. Richardson, J. T. E. (1980). Mental Imagery and Human Memory. New York: St. Martin’s. Rieskamp, J., Hoffrage, U. (1999). When do people use asimple heuristics, and how can we tell? W: G. Gigerenzer, P. M. Todd, the ABC Research Group (red.), Simple heuristics that make us smart (s. 141-167). Oxford, UK: Oxford University Press. Rinck, M., Denis, M. (2004). The metrics of spatial distance during mental imagery. Journal of Experimental Psychology: Learning, Memory, and Cognition, 30, 1211— 1218. Rips, L. J. (1983). Cognitive processes in propositional reasoning. Psychological Review, 90, 38-71. Rips, L. J. (1994). Deductive reasoning. W: R. J. Sternberg (red.), Handbook of perception and cognition: Thinking and problem solving (s. 149-178). New York: Cambridge University Press. Rips, L. J., Shoben, E., Smith, E. E. (1973). Semantic distance and verification of semantic relations. Journal of Verbal Learning and Verbal Behavior, 12, 1-20. Ritchey, G. R. (1980). Picture superiority in free recall: The effect of organization and elaboration. Journal of Experimental Child Psychology, 29, 460^174. Roberge, J. J. (1970). A reexamination of the interpretations of errors in formal syllogistic reasoning. Psychonomic Science, 1970, 331-333. Roberge, J. J. (1978). Linguistic and psychometric factors in propositional reasoning. Quarterly Journal of Experimental Psychology, 30, 705-716. Roberson, D., Davidoff, J., Braisby, N. (1999). Similarity and categorization: Neuropsy chological evidence for a dissociation in explicit categorisation tasks. Cognition, 71, 1-42. Roberson, D., Davies, I., Davidoff, J. (2000). Colour categories are not universal: Re plications and new evidence in favour of linguistic relativity. Journal of Experimental Psychology: General, 129, 369-398. Roberts, A., Bruce, V. (1988). Feature saliency in judging the sex and familiarity of faces. Perception, 17, 475-481. Roberts, M. J., Gilmore, D. J., Wood, D. J. (1997). Individual differences in strategy selection in reasoning. British Journal of Psychology, 88, 473^192. Robertson, I. S. (2001). Problem solving. United Kingdom: Psychology Press East Sussex. Robinson-Riegler, M. B. (1995). The recognition-recall hypothesis of event-based pros pective memory. Dissertation Abstracts International: Section B: The Sciences and Engineering, 55, 55-89.
706
Bibliografia
Rock, I., Linnett, C. M., Grant, P., Mack, A. (1992). Perception without attention: results of a new method. Cognitive Psychology, 24, 502-534.
Roediger, H. L. (1980). The effectiveness of four mnemonics in ordering recall. Journal of Experimental Psychology: Human Learning and Memory, 6, 558-567.
Roediger, H. L., McDermott, K. B. (1995). Creating false memories: Remembering words not presented in lists. Journal of Experimental Psychology: Learning, Memory, and Cognition, 21, 803-814. Roediger, H. L., McDermott, K. B. (1999). False alarms about false memories. Psycho logical R e v ie w . t. 106, 406-410. Roediger, H. L., March, E. J., Lee, S. C. (2002). Kinds of memory. W: H. Pashler, D. L. Medin (red.), Stevens handbook of Psychology (t. 2, s. 1-42). New York: Wiley. Rogers, T. B., Kuiper, N. A., Kirker W. S. (1977). Self-reference and the encoding of personal information. Journal of Personality and Social Psychology, 35, 677-688. Rogers, R., Monsell, S. (1995). Cost of predicable switch between simple cognitive task. Journal of Experimental Psychology: General, 124, 207-231. Rohrbaugh, C. C., Shanteau, J. (1999). Context, process, and experience: Research on applied judgment and decision making. W: F. T. Durso (red.), Handbook of applied cognition (s. 115-139). Chichester, UK: Wiley. Rosch, E. H. (1973). Natural categories. Cognitive Psychology, 4, 328-350. Rosch, E. H. (1975). Cognitive representations of semantic categories. Journal of Experimental Psychology: General, 104, 192-233. Rosch, E. H., (1978). Principles of categorization. W: E. Rosch, B. B. Lloyd (red.), Cognition and categorization (s. 27-48). Hillsdale: Lawrence Erlbaum. Rosch, E. H. (1999). Principles of categorization. W: E. Margolis, S. Laurence (red.), Concepts. Core readings (s. 189-206). Cambridge: MIT Press. Rosch, E. H., Mervis, C. B. (1975). Family resemblance studies in the internal structure of categories. Cognitive Psychology, 7, 573-605. Rosch, E. H., Mervis, C. B., Gray, W. D., Johnson, D. M., Boyes-Braem, P. (1976). Basic objects in natural categories. Cognitive Psychology, 15, 346-378. Rosch, E. H., Simpson, C., Miller, R. S. (1976). Structural bases of typical effects. Jour nal of Experimental Psychology: Human Perception and Performance, 2, 491-502. Ross, S., Dardano, J., Hackman, R. (1959). Conductance level during vigilance task performance. Journal of Applied Psychology, 43, 65-69. Roth, E. M., Shoben, E. J. (1983). The effect of context on the structure of category. Cognitive Psychology, 15, 346-378. Roth, I. (1986). An introduction to objects perception. W: I. Roth, J. P. Frishby (red.), Perception and representation: A cognitive approach. Milton Keynes, UK: Open University Press. Royer, J. M., Lynch, D. J., Hambleton, R. K. (1984). Using the sentence verification technique to assess the comprehension of technical text as a function of subject matter expertise. American Educational Research Journal, 21, 839-869. Rozencwajg, P. (1991). Analysis of problem solving strategies on the Kohs Block Design Test. European Journal of Psychology of Education, 6, 73-88. Rozencwajg, P., Corroyer, D. (2002). Strategy development in a block design task. Intelligence, 30, 1-25. Rubin, D. C. (red.). (1996). Remembering our past: Studies in autobiographical memory. Cambridge, England: Cambridge University Press. Rubin, D. C., Wetzler, S. E., Nebes, R. D. (1986). Autobiographical memory across the lifespan. W: D. C. Rubin (red.), Autobiographical memory (s. 202-221). New York, NY, US: Cambridge University Press. Rubinstein, J., Meyer, D., Evans, E. (2001). Executive control of cognitive processes in task switching. Journal of Experimental Psychology: Human Perception and Performance, 27, 763-797.
Bibliografia
707
Rumelhart, D. E. (1980). Schemata: The basic building blocks of cognition. W: R. Sapiro, B. Bruce, W. Brewer (red.), Theoretical issues in reading comprehension. Hillsdale, NJ: Lawrence Erlbaum Associates Inc. Rumelhart, D. E., Abrahamson, A. A. (1973). A model for analogical reasoning. Cognitive Psychology, 5, 1-28. Rumelhart, D. E., Lindsay, P. H., Norman, D. A. (1972). A process model for long-term memory. W: E. Tulving, W. Donaldson (red.), Organization of memory. New York: Academic Press. Rumelhart, D. E., McClelland, J. L. (1986). Parallel distributed processing. Explorations in the microstructure of cognition (t. 1; Foundations). Cambridge: MIT Press. Rumelhart, D. E., McClelland, J. L., the PDP Research Group. (1986). Parallel distributed processing: Explorations in the microstructure of cognition, (t. 1: Foundations). Cambridge, MA: MIT Press. Rumelhart, D. E., Norman, D. A (1975). The active structural network. W: D. A. Norman, D. E. Rumelhart (red.), Explorations in cognition (s. 35-64). San Francisco: Freeman. Rumelhart, D. E., Norman, D. A. (1978). Accretion, tuning, and restructuring: Three modes of learning. W: J. W. Cotton, R. Klatzky (red.), Semantic factors in cognition. Hillsdale, NJ: Erlbaum. Rumelhart, D. E., Norman, D. A. (1981). Analogical processes in learning. W: J. R. Anderson (red.), Cognitive skills and their acquisition. Hillsdale, NJ: Lawrence Erlbaum Associates Inc. Rumelhart, D. E., Ortony, A. (1977). The representation of knowledge in memory. W: R. C. Anderson, R. J. Spiro, W. E. Montague (red.), Schooling and the acquisition of knowledge. Hillsdale, NJ: Erlbaum. Russell, J. A. (1991). In defense of prototype approach to emotion concepts. Journal of Personality and Social Psychology, 60, 37-47. Ruthruff, E., Remington, R., Johnston, J. (2001). Switching between simple cognitive tasks. The interactions of top-down and bottom-up factors. Journal of Experimental Psychology: Human Perception and Performance, 27, 1404-1419. Ryan, C. (1983). Reassessing the automaticity-control distinction: item recognition as a paradigm case. Psychological Review, 90, 171-178. Rybash, J. M., Monaghan, B. E. (1999). Episodic and semantic contributions to older adults’ autobiographical recall. Journal of General Psychology, 126, 85-96. Ryle, G. (1949). The concept of mind. New York: Barnes and Noble. Salomon, G., Perkins, D. N. (1987). Transfer of cognitive skills from programming: When and how? Journal of Educational Computing Research, 3, 149-169. Salter, D. (1973). Shadowing at one and two ears. Quarterly Journal of Experimental Psychology, 25, 549-556. Salthouse, T. A. (1975). Simultaneous processing of verbal and spatial information. Memory and Cognition, 3, 221-245. Sapir, E. (1921), Language: An introduction to the study of speech. New York: Harcourt, Brace. Schacter, D. L. (1996). Searching for memory: The brain, the mind, and the past. New York, NY, US: Basic Books, Inc. Schacter, D. L., Harbluk, J, L., McLachlan, D. R. (1984). Retrieval without recollection: An experimental analysis of source amnesia. Journal of Verbal Learning and Verbal Behavior, 23, 593-611 Schacter, D. L., Tulving, E. (1982). Memory, amnesia, and episodic/sem antic distinction. W: R. L. Isdacson, N. E. Spear (red.), The expression of knowledge (s. 33-65). New York: Plenum Press. Schacter, D. L., Tulving, E. (1994). What are the memory systems of 1994? W: D. L. Schac ter, E. Tulving (red.), Memory systems 1994 (s. 1-38). Cambridge: The MIT Press.
708
Bibliografia
Schaie, K. W. (1994). The course of adult intellectual development. American Psycho logist, 49, 304-313. Schaie, K. W. (1996). Intellectual development in adulthood. W: J. E. Birren, K. W. Schaie, (red.), Handbook of the psychology of aging (s. 266-286). San Diego, CA, US: Academic Press, Inc. Schank, R. C. (1982). Dynam ic memory. Cambridge: Cambridge University Press. Schank, R. C. (1986). Explanation patterns: Understanding mechanically and creatively. Hillsdale, NJ, England: Lawrence Erlbaum Associates, Inc. Schank, R. C., Abelson, R. P. (1977). Scripts, plans, goals and understanding: An inquiry into human knowledge structures. Oxford, England: Lawrence Erlbaum. Scheerer, M. (1963). Problem-solving. Scientific American, 208, 118-128. Schneider, W. (1984). Toward a model of attention and the development of automatic processing. W: M. I. Posner, O. S. M. Marin (red.), Attention and performance (t. XI). New Jersey: LEA. Schneider, W., Dumais, S. T., Shiffrin, R. M. (1984). Automatic and control processing and attention. W: R. Parasuraman, D. R Davies (red.), Varieties of attention. Orlando: Academic Press. Schneider, W., Shiffrin, R .M. (1977a). Controlled and automatic human information processing. I. Detection, search, and attention. Psychological Review, 84, 1-66. Schneider, W., Shiffrin, R. M. (1977b). Controlled and automatic human information processing. II. Perceptual learning: automatic attending and a general theory. Psychological Review, 84, 127-190. Schneider, W., Shiffrin, R. M. (1977c). Toward a unitary model for selective attention, memory scanning, and visual search. W: S. Dornic (red.), Attention and performance (t. VI). N ew Jersey: Erlbaum. Schneider, W., Fisk, A. D. (1982). Concurrent automatic and controlled visual search: Can processing ocurr without resource cost? Journal of Experimental Psychology. Learning, Memory, and Cognition, 8, 161-179. Schneider, W., Fisk, A. D. (1984). Automatic category search and its transfer. Journal of Experimental Psychology. Learning, Memory, and Cognition, 10, 1-15. Schooler, J. W., Engstler-Schooler, T. Y. (1990). Verbal overshadowing of visual me mories: Some things are better left unsaid. Cognitive Psychology, 22, 36-71. Schumacher, R. Czerwiński, M. (1992). Mental models and the acquisition of expert knowledge. W: R. Hoffman (red.), The psychology of expertise. New York: SpringerVerlag. Seifert, C. M., Meyer, D. E., Davidson, N. (1995). Demystification of cognitive insight: Opportunistic assimilation and the prepared-mind perspective. W: R. J. Sternberg, J. E. Davidson (red.), Nature of insight (s. 65-124). Cambridge, MA, US: The MIT Press. Sekuler, R., Blake, R. (1994). Perception. New York: McGraw-Hill. Selfridge, O. G., Neisser, U. (1960). Pattern recognition by machine. Scientific American, 203, 60-68. Sellen A.J., Louie G., Harris J. E., Wilkins A.J. (1997). What Brings Intentions to Mind? An In Situ Study of Prospective Memory. Memory, 5, 483-507. Sells, S. B. (1936). The atmosphere effect: An experimental study of reasoning. Archives of Psychology, 200. Sergent, J. (1984). An investigation into component and configural processes underlying face perception. British Journal of Psychology, 75, 221-242. Sergent, J., Ohta, S., MacDonald, B. (1992). Functional neuroanatomy of face and object processing. Brain, 115, 15-36. Sęk, H. (1970). Zaburzenia operacji pojęciowych u chorych z zespołami urojeniowo-o m a m o w ym i. Niepublikowana praca doktorska: UAM Poznań.
Bibliografia
709
Shafir, E. (1993). Choosing versus rejecting: Why some opinions are both better and worse than others. Memory and Cognition, 21, 546-556. Shallice, T. (1982). Specific impairments of planning. Philosophical Transcription of the Royal Society of London, B298, 199-209. Shallice, T. (1988). From neuropsychology to mental structure. Cambridge: Cambridge University Press. Shallice, T., Burgess, P. (1996). The domain of supervisory processes and temporal organization of behaviour. Philosophical Transactions of the Royal Society of London, B351, 1405-1412. Shallice, T., Burgess, P., Schon, F. Baxter, D. M. (1989). The origins of utilization behaviour. Brain, 112, 1587-1598. Shallice, T., Fletcher, P., Fritch, C. D., Grasby, P., Frackowiak, R. S. J., Dolan, R. J. (1994). Brain regions associated with acquisition and retrieval of verbal episodic memory. Nature, 368, 633-635. Shanks, D. R., St. John, M. F. (1994). Characteristics of dissociable human learning systems. Behavioral & Brain Sciences, 17, 367^147. Shannon, C., Weaver, W. (1949). The mathematical theory of communication. Urbana, IL: University of Illinois Press. Shaw, M. P. (1989). The eureka process: A structure for the creative experience in science and engineering. Creativity Research Journal, 2, 286-298. Shaw, M. P. (1994). Affective components of scientific creativity. W: Shaw, M. P., Run co, M. A (red.), Creativity and affect (s. 3-43). Westport, CT, US: Ablex Publi shing Shaw, V. F. (1996). The cognitive processes in informal reasoning. Thinking and reasoning, 2, 51-80. Shepard, R. N. (1967). Recognition memory for words, sentence, and pictures. Journal of Verbal Learning and Verbal Behavior, 6, 156-163. Shepard, R. N. (1975). Form, formation and transformation of internal representations. W: R. L. Solso (red.), Information processing and cognition (s. 87-122). Hillsdale: Lawrence Erlbaum. Shepard, R. N. (1984). Ecological constraints on internal representation: resonant kinematics of perceiving, imagining, thinking and dreaming. Psychological Review, 91, 417-447. Shepard, R. N., Chipman, S. (1970). Second-order isomorphism of internal representa tions: Shapes of states. Cognitive Psychology, 1, 1-17. Shepard, R. N., Metzler, J. (1971). Mental rotation of three-dimensional objects. Science, 171, 701-703. Sherry, D. F., Schacter, D. L. (1987). The evolution of multiple memory systems. Psychological Review, 94, 439-454. Shettleworth, S. J. (1993). Varieties of learning and memory in animals. Journal of Experimental Psychology: Animal Behavior Processes, 19, 5-14. Shiffrin, R. M., Atkinson, R. C. (1969). Storage and retrieval processing in long-term memory. Psychological Review, 76, 179-193. Shiffrin, R. M., Dumais, S. T., Schneider, W. (1981). Characteristics of automatism. W: J. Long, A. Baddeley (red.), Attention and performance (t. IX). New Jersey: LEA. Shiffrin, R. M., Gardner, G. T. (1972). Visual processing capacity and attentional control. Journal of Experimental Psychology, 93, 72-82. Shiffrin, R. M., Geisler, W. S. (1973). Visual recognition in a theory of information processing. W: R. L. Solso (red.), Contemporary issues in cognitive psychology: The Loyola Symposium. Oxford, England: V. H. Winston & Sons. Shiffrin, R. ML, McKey, D. P., Shaffer, W. O. (1976). Attending to forty-nine spatial positions at once. Journal of Experimental Psychology. Human Perception and Performance, 2, 14-22.
710
Bibliografia
Shiffrin, R. M., Pisoni, D. B., Castaneda-Mendez, K. (1974). Is attention shared between the ears? Cognitive Psychology, 6, 190-215. Shiffrin, R. M., Ratcliff, R., Clark, S. E. (1990). List-Strength Effect: II. Theoretical Mechanisms. Journal of Experimental Psychology: Learning, Memory, and Cogni tion, 16, 179-195. Shiffrin, R. M., Schneider, W. (1977). Controlled and automatic human information processing: II. Perceptual learning, automatic attending, and a general theory. Psychological Review, 84, 127-190. Shilling, V. M., Chetwynd, A., Rabbitt, P. M. A. (2002). Individual inconsistency across measures of inhibition: An investigation of the construct validity of inhibition in older adults. Neuropsychologia, 40, 605-619. Shirely, D. A., Langan-Fox, J. (1996). Intuition: A review of the literature. Psychological Reports, 79, 563-584. Siegel, R. K. (1984). Hostage hallucinations: Visual imagery induced by isolation and lifethreatening stress. Journal of Nervous and Mental Disease, 172, 264-272. Siegler, R. S., Shrager, J. (1984). Strategy choice in addition and subtraction: How do children know what to do? W: C. Sophian (red.), Origins of cognitive skills (s. 229293). Hillsdale, N J: Erlbaum. Silveri, M. C., Gainotti, G. (1988). Interaction between vision and language in category specific semantic impairment for living things. Cognitive neuropsychology, 5, 677-710. Simon, H. A. (1947). Adm inistrative behavior. New York: Macmillan. Simon, H. A. (1956). Rational choice and the structure of environments. Psychological Review, 63, 129-138. Simon, H. A. (1973). The structure of ill-structured problems. Artificial Intelligence, 4,181-201. Simon, H. A. (1974). How big is a chunk? Science, 183, 482-488. Simon, H. A. (1975). The functional equivalence of problem solving skills. Cognitive Psychology, 7, 268-288. Simon, H. A. (1977). Boston studies in the philosophy of science: t. 54. Models of discovery. Boston: Reidel. Simon, H. A. (1978). Information-processing theory of human problem solving. W: W. K. Estes (red.), Handbook of learning and cognitive processes: Human information (t. V, s. 271-295). Oxford, England: Lawrence Erlbaum. Simon, H. A. (1982). Models of bounded rationality (t. 1-2). Cambridge, MA: The MIT Press. Simon, H. A., Kaplan, C. A. (1989). Foundations of cognitive science. W: M. I. Posner (red.), Foundations of cognitive science (s. 1-47). Cambridge, MA, US: The MIT Press. Simon, H. A., Newell, A. (1971). Human problem solving: The state of the theory in 1970. American Psychologist, 26,145-159. Simonton, D. K. (1999). Creativity and genius. W: L. A. Pervin, O. P. John (red.), Handbook of personality: Theory and research (s. 629-652). New York, NY, US: Guilford Press. Skinner, B. F. (1957). Verbal behavior. New York: Appleton-Century-Crofts. Sloane, P., MacHale, D. (1997). Perplexing Lateral Thinking Puzzles. New York: Sterling. Stabosz, A., Szymura, B. (2004). Znaczenie koloru jako cechy podstawowej w procesie przeszukiwania pola wzrokowego. Studia Psychologiczne, tom specjalny - Oblicza uwagi, 42, 37-46. Smith, V. L,, Ellsworth, P. C. (1987). The social psychology of eyewitness accuracy : Misleading questions and communicator expertise. Journal of Applied Psychology, 72, 294-300. Smith, A. (1991). Noise and aspects of attention. British Journal of Psychology, 82, 313-324.
Bibliografia
711
Smith, D. A., Graesser, A. C. (1981). Memory for actions in scripted activities as a function of typicality, retention interval, and retrieval task. Memory and Cognition, 9, 550-559. Smith, E. E., Medin D. L. (1981). Categories and concepts. Cambridge, Mass.: Harvard University Press. Smith, E. E, Osherson, D. N. (1984). Conceptual combination with prototype concepts. Cognitive Science, 8, 337-361. Smith, E. E., Shoben, E. J., Rips, L. J. (1974). Structure and process in semantic memory. A featural model for semantic decisions. Psychological R eview , 81, 214-241. Smith, S. M. (1995). Getting into and out of mental routs: A theory of fixation, incubation, and insight. W: R. J. Sternberg, J. E. Davidson (red.), Nature of insight (s. 229-251). Cambridge, MA, US: The MIT Press. Smith, S. M., Vela, E. (2001). Environmental context-dependent memory: A review and meta-analysis. Psychonomic Bulletin & Review, 8, 203-220. Smith, S. M., Ward, T, B., Finke, R. A. (1995). The creative cognition approach. Cambridge, MA: MIT Press. Snodgrass, J. G., Luce, R. D., Galanter, E. (1967). Some experiments on simple and choice reaction time. Journal of Experimental Psychology, 75, 1-17. Snodgrass, J. G., McClure, P. (1975). Storage and retrieval properties of dual codes for pictures and words in recognition memory. Journal of Experimental Psychology: Human Learning and Memory, 1, 521-529. Sohn, M., Anderson, J. (2001). Task preparation and task repetition. Two component model of task switching. Journal of Experimental Psychology: General December, 150, 764-778. Sohn, M., Carlson, R. A. (2000). Effects of repetition and foreknowledge in task-set reconfiguration. Journal of Experimental Psychology: Learning, Memory, and Cognition, 26, 1445-1460. Solomon, M. R. (1996). Consumer behavior: Buying, having, and being. Englewood Cliffs, NJ: Prentice Hall. Spector, A., Biedermann, I. (1976). Mental Set and Mental Shift revisited. American Journal of Psychology, 89, 669-679. Spencer, R. M.; Weisberg, R. W. (1986). Context-dependent effects on analogical transfer. Memory and Cognition, 14, 442-449. Sperling, G. (1960). The information available in brief visual presentations. Psychological Monographs, 74 (caly numer 498). Sperling, G. (1963). A model for visual memory task. Human Factors, 5, 19-31. Squire, L. R. (1986). Mechanisms of memory. Science, 232, 1612-1619. Squire, L. R. (1994). Declarative and nondeclarative memory: Multiple brain systems supporting learning and memory. W: D. L. Schacter i Tulving, E. (red.), Memory systems (s. 203-231). Cambridge, MA, US: The MIT Press. Squire, L. R., Zola-Morgan, S. (1991). The medial temporal lobe memory system. Science, 253, 1380-1387. Standing, L., Conezio, J., Haber, R. N. (1970). Perception and memory for pictures: Single-trial learning of 2500 visual stimuli. Psychonomic Science, 19, 73-74. Stanley, W. B., Mathews, R. C., Buss, R. R., Kotler-Cope, S. (1989). Insight without awareness: On the interaction of verbalization, instruction and practice in a simu lated process control task. Quarterly Journal of Experimental Psychology: Human Experimental Psychology, 41, 553-577. Stanovich, K. E., West, R. F. (1998). Individual differences in framing and conjunction effects. Thinking and Reasoning, 4, 289-317. Stanovich, K. E., West, R. F. (2000). Individual differences in reasoning: Implications for the rationality debate? Behavioral and Brain Sciences, 23, 645-726. Stein, B. S., Bransford, J. D. (1979). Constraints on effective elaboration: Effects of precision and subject generation. Journal of Verbal Learning and Verbal Behavior, 18, 169-711.
712
Bibliografia
Stein, M. I. (1953). Creativity and culture. Journal of Psychology, 36, 311-322. Stern, R. M. (1966). Performance and physiological arousal during two vigilance tasks varying in signal presentation rate. Perceptual and Motor Skills, 23, 691-700.
Sternberg, R. J. (1977a). Component Processes in Analogical Reasoning. Psychological Review, 84, 353-378.
Sternberg, R. J. (1977b). Intelligence, information processing, and analogical reasoning: The componential analysis of human abilities. Hillsdale, NJ: Erlbaum.
Sternberg, R. J. (1980). Representation and process in linear syllogistic reasoning. Journal of Experimental Psychology: General, 109, 119-159. Sternberg, R. J. (1981). Reasoning with determinate and indeterminate linear syllogisms. British Journal of Psychology, 72, 407-420.
Sternberg, R. J. (1985a). Beyond IQ: A triarchic theory of human intelligence. Cambridge: Cambridge University Press.
Sternberg, R. J. (1985b). Implicit theories of intelligence, creativity, and wisdom. Journal of Personality and Social Psychology, 49, 607-627.
Sternberg, R. J. (1986a). GENECES: A framework for intellectual abilities and theories of them. Intelligence, 10, 239-250. Sternberg, R. J. (1986b). Toward a unified theory of human reasoning. Intelligence, 10, 281-314. Sternberg, R. J. (1996a). Successful intelligence. New York: A Plume Book. Sternberg, R. J. (1996b). Cognitive psychology. Fort Worth, TX: Harcourt Brace College Publishers. Sternberg, R. J. (2000). Intelligence and wisdom. W: R. J. Sternberg (red.), Handbook of intelligence (s. 631-649). Cambridge: Cambridge University Press. Sternberg, R. J., Davidson, J. E. (1982). The mind of the puzzler. Psychology Today, 16, 37-44. Sternberg, R. J., Forsythe, G. B., Hedlung, J., Horvath, J. A., Wagner, R. K., Williams, W. M., Snook, S. A., Grigorienko, E. L. (2000). Practical intelligence in everyday life, Cambridge, UK: Cambridge University Press. Sternberg, R. J., Lubart, T. I. (1991). An investment theory of creativity and its development. Human Development, 34, 1-31. Sternberg, R. J,, Lubart, T. I. (1995). An investment perspective on creative insight. W: R. J. Sternberg, J. E. Davidson (red.), Nature of insight (s. 535-558). Cambridge, MA, US: The MIT Press. Sternberg, R. J., Wagner, R. K., Okagaki, L. (1993). Practical intelligence: The nature and role of tacit knowledge in work and at school. W: J. M. Puckett, H. W. Reese (red.), Mechanisms of everyday cognition (s. 205-227). Hillsdale, NJ, England: Lawrence Erlbaum Associates, Inc. Sternberg, S. (1966). High speed scanning in human memory. Science, 153, 652-654. Sternberg, S. (1969a). The discovery of processing stages: Extension of Donders’ method. Acta Psychologica, 30, 276-315. Sternberg, S. (1969b). Memory scanning: Mental processes revealed by reaction time experiments. American Scientist, 57, 421^157. Stevens, M. E. (1981). Hypothesis-testing in elderly as a function of task concreteness and memory condition. Dissertation Abstracts International, 41. Stroop, J. R. (1935). Studies on interference in serial verbal reactions. Journal of Experimental Psychology, 28, 643-662. Strözewski, W. (2004). Ontologia. Krakow: Wyd. Aureus, Wyd. Znak, Styles, E. A. (1997). The psychology of attention. Hover, UK: Psychology Press. Süß, H. M., Kersting, M., Oberauer, K. (1991). Intelligenz und Wissen als Prädiktoren für Leistungen bei computersimulierten komplexen Problemen (Intelligence and knowledge as predictors of performance in solving complex computer-simulated problems). Diagnostica, 37, 334-352
Bibliografía
713
Svenson, O. (1992). Differentiation and consolidation theory of human decision making: A frame of reference for the study of pre- and postdecision processes. Acta Psychologica, 80, 143-168. Svenson, O. (1996). Decision making and the search for fundamental psychological regularities: what can be learned from a process perspective? Organizational Be havior and Human Decision Processes, 65, 252-267. Svenson, O. (2003). Values, affect, and processes in human decision making: A dif ferentiation and consolidation theory perspective. W: S. L. Schneider, J: Shanteau (red.), Emerging perspectives in decision research (s. 287 -3 2 6 ). New York: Cambridge University Press. Swanson, H. L. (1990). Influence of Metacognitive Knowledge and Aptitude on Problem Solving. Journal of Educational Psychology, 82, 306-314. Szymura, B. (1999). On the organization of the processes of selective attention. Polish Psychological Bulletin, 50, 69-84. Szymura, B. (2003). Kiedy uwaga może być automatyczna. W: R. K. Ohme, M. Jarymowicz (red.), Automaty zm y w regulacji psychicznej (s. 63-78). Warszawa: Wyd. IP PAN. Szymura, B., Horbaczewski, T. (w druku). Poznawcze uwarunkowania skuteczności wpływu wizualnego przekazu reklamowego. W: M. Kossowska, M. Śmieja, S. Śpie wak (red.), Społeczny um ysł czyli o zjaw iskach społecznych z perspektyw y poznawczej. Gdańsk: GWP. Szymura, B., Jagielski, M., Memory and arousal: On the influence of an alcohol on memory scanning. Manuskrypt niepublikowany. Szymura, B., Nęcka, E. (1998). Visual selective attention and personality: An ex perimental verification of three models of extroversion. Personality and Individual Differences, 24, 713-729. Szymura, B., Nęcka, E. (2004). Jednorodna uwaga - reaktywacja. Studia Psychologiczne, 41, 47-56. Szymura, B., Patraszewska, M., Różnice indywidualne w efekcie Stroopa. Manuskrypt niepublikowany. Szymura, B., Stabosz, A. (2002). Uwaga selektywna a pozytywne i negatywne konsekwencje automatyzacji czynności. Studia Psychologiczne, 40, 161-183. Śmigasiewicz, K., Szymura, B., Słabosz, A. (2004). Przerzutność uwagi. Rola procesów automatycznych i kontrolowanych. Studia Psychologiczne,42, 57-70. Tanaka, J. W., Sengco, J. A. (1997). Features and their configuration In face recognition. Memory and Cognition, 25, 583-592. Tarnowski, A., Terelak, J. (1996). Okoruchowy mechanizm uwagi w sytuacji decyzyjnej. Czasopismo Psychologiczne, 2(3), 189-194. Taylor, D. W., McNemar, O. W. (1955). Problem solving and thinking. Annual Review of Psychology, 6, 455-482. Tehan, G., Humphreys, M. S. (1995). Transient phonemic codes and immunity to proactive interference. Memory and Cognition, 23, 181-192. Thackray, R. I., Jones, K. N., Touchstone, R. M. (1973). Self-estimates of distractibility as related to performance decrement on a task requiring sustained attention. Ergonomics, 16, 141-152. Theeuwes, J. (1994). Stimulus-Driver Capture and Attentional Set: Selective Search for Color and Visual Abrupt Onsets. Journal of Experimental Psychology. Human Perception and Performance, 20, 799-806. Theeuwes, J. (2001). Top-down and bottom-up control of visual selection. Key-note Talk presented on the XIIESCOP Conference, Edinburgh, 5 -8 September, 2001. Theeuwes, J., Burger, R. (1998). Attentional control during visual search: The effect of irrelevant singletons. Journal of Experimental Psychology. Human Perception and Performance, 24, 1342-1353.
714
Bibliografia
Theeuwes, J., Kramer, A. F., Atchley, P. (1999). Attentional effects on preattentive vision: Spatial precues affects the detection of simple features. Journal of Experimental Psychology. Human Perception and Performance, 25, 341-347. Theeuwes, J., Kramer, A. F., Hahn, S., Irwin, D. E., Zielinsky, G. J. (1999). Influence of Attentional Captureon Oculomotor Control. Journal of Experimental Psychology. H uman Perception and Performance, 25, 1595-1608. Thomas, J. C. (1974) An analysis of behavior in the hobbits-orcs problem. Cognitive Psychology, 6, 257-269. Thompson, A. H. (1986), Psychoticism and signalled versus unsignalled reaction time. Personality and Individual Differences, 6, 775-778. Tipper, S. P. (1985). The negative priming effect: Inhibitory priming by ignored objects. Quarterly Journal of Experimental Psychology, 37A, 571-590. Tipper, S. P., Brehaut, J. C., Driver, J. (1990). Selection of moving and static objects for the control of spatially directed attention. Journal of Experimental Psychology. Human Perception and Performance, 16, 492-504. Tipper, S. P., Cranston, M. (1985). Selective attention and priming: inhibitory and facilitatory effects of ignored primes. Quarterly Journal of Experimental Psychology, 37A, 591-611. Tipper, S. P., Driver, J. (1988). Negative priming between pictures and words in a selective attention task: Evidence for semantic processing of ignored stimuli. Memory and Cognition, 16, 64-70. Tipper, S. P., MacQueen, G. M., Brehaut, J. C. (1988). Negative priming between re sponse modalities: Evidence for the central locus of inhibition in selective attention. Perception and Psychophysics, 43, 45-52. Tipper, S. P., Weaver, B., Cameron, S., Brehaut, J. C., Bastedo, J. (1991). Inhibitory mechanisms of attention in identification and localization tasks: Time course and disruption. Journal of Experimental Psychology. Learning, Memory, and Cognition, 17, 681-692. Todd, P. M., Miller, G. F. (1999). From prode and prejudice to persuasion: Satisficing in mate search. W: G. Gigerenzer, P. M. Todd, the ABC Research Group (red.), Simple heuristics that make us smart (s. 287-308). Oxford, UK: Oxford University Press. Tolan, G. A., Tehan, G. (1999). Determinants of short term forgetting: Decay, retroactive or proactive interference?. International Journal of Psychology, 34, 285-292. Tolman, E. C. (1932/1967). Purposive behavior in animals and men. New York: Irvington. Tomasello, M. (2005). Kulturowe źródła ludzkiego poznania (przel. J. Rączaszek). War szawa: PIW. Tomasello, M. (w druku). Acquiring linguistic constructions. W: R. Siegler, D. Kuhn (red.), Handbook for child psychology: Cognitive development. Tomaszewski, T. (1975). Podstawowe formy organizacji i regulacji zachowania. W: T. Tomaszewski (red.), Psychologia (s. ??-??). Warszawa: PWN. Toms, M., Morris, N., Ward, D. (1993). Working memory and conditional reasoning. Journal of Experimental Psychology: Human Experimental Psychology, 46A(4). Special issue: The cognitive psychology of reasoning, 679-699. Tooby, J., Cosmides, L. (1990). The past explains the present: Emotional adaptations and the structure of ancestral environments. Ethnology and Sociobiology, 11, 375-424. Townsend, J. T. (1971). A note on identifiability of parallel and serial processes. Perception and Psychophysics, 10, 161-163. Townsend, J. T. (1972). Some results concerning the identifiability of parallel and serial processes. British Journal of Mathematical and Statistical Psychology, 25, 168-199. Townsend, D. J. (1974). Children’s comprehension of comparative forms. Journal of Experimental Child Psychology, 18, 293-303.
Bibliografia
715
Townsend, J. T. (2001). A clarification of self-terminating versus exhaustive variances in serial and parallel models. Perception & Psychophysics, 63, 1101-1106. Townsend, J. T. Roos, R. N. (1973). Search reaction time for single targets in multiletter stimuli with brief visual displays. Memory 8c Cognition, 1, 319-332. Travis, R. C. (1937). The effect of the length of the rest period on motor learning. Journal of Psychology: Interdisciplinary and Applied, 3, 189-194. Treisman, A. M. (1960). Contextual cues in selective listening. Quarterly Journal of Experimental Psychology, 12, 242-248. Treisman, A. M. (1964a). Effect of irrelevant material on the efficiency of selective listening. American Journal of Psychology, 17, 533-546. Treisman, A. M. (1964b). Verbal cues, language and meaning in selective attention. American Journal of Psychology, 77, 215-216. Treisman, A. M. (1970). Perception and recall of simultaneous speech stimuli. W: A. F. Sanders (red.), Attention and performance (t. III). Amsterdam: North-Holland Publishing Company. Treisman, A. M. (1982). Perceptual grouping and attention in visual search for features and for objects. Journal of Experimental Psychology. Human Perception and Performance, 8, 194-214. Treisman, A. M. (1988). Features and objects: The fourteenth Bartlett memorial lecture. Quarterly Journal of Experimental Psychology, 40, 201-237. Treisman, A. M. (1993). The perception of features and objects. W: A. Baddeley, L. Weiskrantz (red.), Attention: selection, awareness, and control A Tribute to Donald Broadbent (s. 5-35). Oxford: Clarendon Press. Treisman, A. M. (1998). The perception of features and objects. W: R. D. Wright (red.), Visual attention (s. 27-51). Oxford: University Press. Treisman, A. M., Davies, A. (1973). Divided attention to ear and eye. W: S. Kornblum (red.), Attention and performance (t. IV). New York: Academic Press. Treisman, A. M,, Gelade, G. (1980). A feature-integration theory of attention. Cognitive Psychology, 12, 97-136. Treisman, A. M., Sato, S. (1990). Conjunction search revisited. Journal of Experimental Psychology. Human Perception and Performance, 16, 459-478. Treisman, A. M., Squire, R., Green, J. (1974). Semantic processing in dichotic listening. A replication. Memory and Cognition, 2, 641-646. Treisman, A. M., Sykes, M., Gelade, G. (1977). Selective attention and stimulus integra tion. W: S. Dornic (red.), Attention and performance (t. VI). New Jersey: Erlbaum. Treisman, A, M., Viera, A., Hayes, A. (1992). Automaticity and preattentive processing. American Journal of Psychology, 105, 341-362. Trzebiński, J. (1981). Twórczość i struktura pojęć. Warszawa: PWN. Trzebiński, J. (1986). W spółczesne badania nad pojęciami. W: M. Goszczyńska (red.), Psychologia procesów poznawczych. Wybrane zagadnienia (s. 93-122). Warszawa: Wyd. UW. Tucker, P., Warr, P. (1996). Intelligence, elementary cognitive components, and cognitive styles as predictors of complex task performance. Personality and Individual Differences, 21, 91-102. Tulving, E. (1972). Episodic and semantic memory. W: E. Tulving, W. Donaldson (red.), Organization of memory (s. 381-403). New York: Academic Press. Tulving, E. (1974). Cue-dependent forgetting. American Scientist, 62, 74-82. Tulving, E. (1976a). Ecphoric processes in recall and recognition. W: J. Brown (red.), Recall and recognition (s. 37-74). London: Wiley. Tulving, E. (1976b). Role of semantic memory in the storage and retrieval of episodic information. Bulletin de Psychologie, Special Annual, 19-25. Tulving, E. (1983). Elements of episodic memory. Oxford: Oxford University Press.
716
Bibliografía
Tulving, E. (1984). Precis of Elements of episodic memory. The Behavioral and Brain Sciences, 7, 223-268.
Tulving, E. (1985a). Ebbinghaus’s Memory: What Did He Learn and Remember? Journal of Experimental Psychology: Learning, Memory, and Cognition, 11, 485-490.
Tulving, E. (1985b). How many memory systems are there? American Psychologist, 40, 385-398.
Tulving, E., Psotka, J. (1971). Retroactive inhibition in free recall: Inaccessibility of information available in the memory store. Journal of Experimental Psychology, 87, 1- 8 . Tulving, E., Thomson, D. M. (1973). Encoding specificity and retrieval processes in episodic memory. Psychological Review, 80, 359-380. Turner, M. L., Engle, R. W. (1989). Is working memory capacity task dependent? Journal of Memory and Language, 28, 127-154. Tversky, A. (1972). Elimination by aspects: A theory of choice. Psychological Review, 79,
281-299. Tversky, A. (1973). Encoding processes in recognition and recall. Cognitive Psychology, 5, 275-287. Tversky, A. (1977). Features of similarity. Psychological Review, 84, 327-352. Tversky, A., Kahneman, D. (1982). Judgment under uncertainty: heuristics and biases. W: D. Kahneman, P. Slovic, A. Tversky (red.), Judgment under uncertainty: Heuristics and biases (s. 3-20). Cambridge: Cambridge University Press. Tversky, A., Kahneman, D. (1983). Extensional versus intuitive reasoning: The con junction fallacy in probability judgment. Psychological Review, 90, 293-315. Tzelgov, J., Henik, A. (1995). Kontrola zautomatyzowania i wprawa. Przypadek efektu Stroopa. Czasopismo Psychologiczne, 1, 7-17. Tzelgov, J., Henik, A., Leiser, D. (1990). Controlling Stroop interference: Evidence from bilingual task. Journal of Experimental Psychology: Learning, Memory, and Cognition, 16, 760-771. Tzelgov, J., Henik, A., Sneg, R., Baruch, O. (1996). Unintentional word reading via the phonological route: The stroop effect with cross-script homophones. Journal of Experimental Psychology: Learning, Memory, and Cognition, 22, 336-349. Ucros, C. G. (1989). Mood state-dependent memory: A meta-analysis. Cognition and Emotion, 3, 139-169. Underwood, B. J. (1945). The effect of successive interpolations on retroactive and proactive inhibition. Psychological Monographs, 59. Underwood, B. J. (1957). Interference and forgetting. Psychological Review, 64, 49-60. Underwood, B. J., Postman, L. (1960). Extraexperimental sources of interference in forgetting. Psychological Review, 67, 73-95. Underwood, G. (1977). Contextual facilitation from attended and unattended messages. Journal of Verbal Learning and Verbal Behavior, 16, 99-106. Underwood, G. (red.) (2004). Poznanie utajone (przel. R. Balas, A. Slabosz). Gdańsk: GWP. Underwood, G. D. M., Bright, J. E. H. (1996). Cognition with and without awareness. W: G. D. M. Underwood (red.), Implicit cognition (s. 1-40), London: Oxford University Press, \-4Q. Valentine, T. (1988). Upside-down faces: A review of the effect of inversion upon face recognition. British Journal of Psychology, 79, 471-491. Vandierendonck, A. (2000). Analyzing human random time generation behavior: A methodology and a computer program. Behavior Research Methods, Instruments, and Computers, 32, 555-565. Vandierendonck, A., de Vought, G., Van der Goten, K. (1998). Does random time interval generation interfere with working memory executive functions? European Journal of Cognitive Psychology, 10(4), 413-442.
Bibliografia
717
Vandierendonck, A., Kemps, E., Fastame, M. C., Szmalec, A. (2004). Working memory components of the Corsi blocks task. British Journal of Psychology, 95, 57-79. Van Dijk, T. A., Kintsch, W. (1983). Strategies of discourse comprehension. New York: Academic Press. Van Zandt, T., Townsend, J. T. (1993). Self-terminating versus exhaustive processes in rapid visual and memory search: An evaluative review. Perception and Psycho physics, 53, 563-580. Veiling, H., van Knippenberg, A. (2004). Rembering can casue inhibition: retrieval induced inhibition as cue independet process. Journal of Experimental Psychology: Learning, Memory, and Cognition, 30, 315-318. Velmans, M. (1991). Consciousness, brain and the physical word. Philosophical Psychology, 3, 77-99. Velmans, M. (1999). When perception becomes conscious. British Journal of Psychology, 90, 543-546. Vokey, J. R., Brooks, L. R. (1992). Salience of item knowledge in learning artificial grammars. Journal of Experimental Psychology: Learning, Memory, and Cognition, 18, 328-344. Von Wright, J. M., Anderson, K., Stenham, U. (1975). Generalization of conditioned GSRs in dichotic listening. W: P. M. A. Rabbit, S. Dornic (red.), Attention and performance (s. 194-204). New York: Academic Press. Voss,}. F., Post, T. A. (1988). On the solving of ill-structured problems. W: M. T. H. Chi, R. Glaser (red.), Nature of expertise (s. 261-285). Hillsdale, NJ, England: Lawrence Erlbaum Associates Inc. Wagner, H. L. (2000). The accessibility of the term ’contempt’ and the meaning of the unilateral lip curl. Cognition and Emotion, 14, 689-710. Wagner, R. K. (1987). Tacit knowledge in everyday intelligent behavior. Journal of Personality and Social Psychology, 52, 1236-1247. Wagner, R. K. (2000). Practical intelligence.W: R. J. Sternberg (red.), Handbook of intelligence (s. 380-395). New York, NY, US: Cambridge University Press. Wagner, R. K., Sternberg, R. J. (1985). Practical intelligence in real-world pursuits: The role of tacit knowledge. Journal of Personality and Social Psychology, 49, 436-458. Wakefield, J. F. (2003). The development of creative thinking and critical reflection: Lessons from everyday problem finding. W: M. A. Runco (red.), Critical creative processes (s. 253-272). Cresskill, NJ: Hampton Press. Wallach, L. (1997). Informing clients of limits to confidentiality associated with child welfare: Will informed clients talk freely? Dissertation Abstracts International: Section B: The Sciences and Engineering, 57. Wallas, G. (1926). The art of thought. New York: Harcourt. Waltz, J. A., Knowlton, B. J., Holyoak, K. J. (1999). A system for relational reasoning in human prefrontal cortex. Psychological Science, 10, 119-125. Ward, L. B. (1937). Reminiscence and rote learning. Psychological Monographs, 49. Warm, J. S. (1977). Psychological processes in sustained attention. W: R. R. Mackie (red.), Vigilance: Theory, operational performance, and physiological correlates (s. 623-644). New York: Plenum. Warren, W. H., Nicholas, D. W., Trabasso, T. (1979). Event chains and inferences in understanding narratives. W: R. O. Freedle (red.), New directions in discourse processing. Norwood, NJ: Ablex. Warrington, E. K., Taylor, A. M. (1978). Two categorical stages of object recognition. Perception, 7, 695-705. Wason, P. C. (1960). On the failure to eliminate hypotheses in conceptual task. Quarterly Journal of Experimental Psychology, 12, 129-140. Wason, P. C. (1966). Reasoning. W: B. M. Foss (red.), N ew horizons in psychology. Harmondsworth, UK: Penguin.
718
Bibliografia
Wason, P. C. (1968). Reasoning about a rule. Quarterly Journal of Experimental Psychology, 20, 273-281. Wason, P. C., Johnson-Laird, P. N. (1972). Psychology of reasoning: Structure and content. London: B.T. Batsford. Waters, A. J., Gobet, F., Leyden, G. (2002). Visuospatial abilities of chess players. British Journal of Psychology, 93, 557-565. Waters, G. S., Caplan, D, (1996). Processing resource capacity and the interpretation of garden path sentences. Memory and Cognition, 24, 342-355. Watkins, M. J., Gardiner, J. M. (1979). An appreciation of generate-recognize theory of recall. Journal of Verbal Learning and Verbal Behavior, 18, 687-704. Waugh, N. C., Norman, D. A. (1965). Primary memory. Psychological Review, 72, 89-1 0 4 . Wechsler, D. (1997). Cognitive, conative, and non-intellective intelligence (1950). W: J. M. Notterman (red.), Evolution of psychology: Fifty years of the Ameri can Psychologist (s. 22-32). Washington, DC, US: American Psychological Asso ciation. Weisberg, R. W. (1986). Creativity. Genius and other myths. New York: Freeman. Weisberg, R. W. (1988). Problem solving and creativity. W: R. J. Sternberg (red.), The nature of creativity. Contemporary psychological perspectives (s. 148-176). Cambridge, UK: Cambridge University Press. Weisberg, R. W., Alba, J. W. (1981). Gestalt theory, insight, and past experience: Reply to Dominowski. Journal of Experimental Psychology: General, 110, 199-203. Weisberg, R. W., Alba, J. W. (1982). Problem solving is not like perception: More on Gestalt theory. Journal of Experimental Psychology: General, 111, 326-330. Wenke, D., Frensch, P. A. (2003). Is success or failure at solving complex problems related to intellectual ability? W: J. E. Davidson, R. J. Sternberg (red.), Psycho logy of problem solving (s. 87-126). New York, NY, US: Cambridge University Press. Wertheimer, M. (1923). Untersuchungen zur lehre von der gestalt, II. Psychologische Forschung, 4, 301-350. Westcott, M. R. (1968). Toward a contemporary psychology of intuition: A historical, theoretical, and empirical inquiry. New York: Holt. Wetherick, N. E. (1968). A further study of the inferential basis of concept attainment. British Journal of Psychology, 59, 431-435. Wetherick, N. E. (1989). Psychology and syllogistic reasoning. Philosophical Psychology, 2, 111-124. Wetherick, N. E. (1993). Psychology and syllogistic reasoning: Further considerations. Philosophical Psychology, 6, 423M 40. Wetherick, N. E., Gilhooly, K. J. (1995). A tm osphere’, matching, and logic in syllogistic reasoning. Current Psychology: Developmental, Learning, Personality, Social, 14, 169-179. Wheeler, M. A. (2000). Episodic memory and autonoetic awareness. W: E. Tulving, F. I. M. Craik (red.), The Oxford handbook of memory (s. 597-608). New York, NY, US: Oxford University Press. Whetstone, T., McCloskey, M. (1994). The representation of arithmetic facts in memory: Results from retraining a brain damaged patient. Unpublished raw data. Whimbey, A., Lochhead, J. (1999). Fb'oblem solving and comprehension. Mahwah, NJ, US: Lawrence Erlbaum Associates Publishers. Whitehead, A. N. (1911). An introduction to mathematics. New York: Holt. Whorf, B. L. (1982). Język, myśl, rzeczywistość (przel. T. Hołówka). Warszawa: PIW. Wichary, S. (2003). Influence of emotional stimuli on the selection of decision strategies (nieopublikowana praca doktorska). Krakow: Uniwersytet Jagielloński.
Bibliografia
719
Wickelgren, W. A. (1974). How to solve problems: Elements of a theory of problems and problem solving. San Francisco: Freeman.
Wickens, Ch. D. (1984). Processing resources in attention. W: D. R. Parasuraman, D. R. Davies (red.), Varieties of attention. Orlando: Academic Press.
Wiener, N. (1948). Cybernetics: Or, control and communication in the anim al machine. New York: Wiley.
Wierzbicka, A. (1999). Język - umysł - kultura. Warszawa: Wyd. Nauk. PWN. Wierzchoń, M. (2004). Koszty poznawcze uczenia mimowolnego. Niepublikowana praca doktorska. Kraków: Uniwersytet Jagielloński. Williams, J. M. G., Mathews, A., MacLeod, C. (1996). The emotional stroop task and psychopathology. Psychological Bulletin, 120, 3-24. Williges, R. C. (1971). The role of payoffs and signal ratios on criterion changes during a monitoring task. Human Factors, 13, 261-267. Williges, R. C. (1973). Manipulating the response criterion in visual monitoring. Human Factors, 15, 179-185. Willingham, D. B., Nissen, M. J., Bullemer, P. (1989). On the development of procedural knowledge. Journal of Experimental Psychology: Learning, Memory, and Cognition, 15, 1047-1060. Wittman, W. W., Süß, H. M. (1999). Investigating the paths between working memory, intelligence, knowledge, and complex problem-solving performances via Brunswik symmetry. W: P. L. Ackerman, P. C. Kyllonen (red.), Learning and individual differences: Process, trait, and content determinants (s. 77-108). Washington, DC, US: American Psychological Association. Wixted, J. T. (2004a). On Common Ground: Jost’s (1897) Law of Forgetting and Ribot’s (1881) Law of Retrograde Amnesia. Psychological Review, 111, 864-879. Wixted, J. T. (2004b). The psychology and neuroscience of forgetting. Annual R eview of Psychology, 55, 235-269. Wodniecka, Z. (2004). Cognitive costs of second language processing. Krakow: Instytut Psychologii UJ (nieopublikowana praca doktorska). Wojciszke, B. (1991). Procesy oceniania ludzi. Poznań: Wyd. Nakom. Woleński, J. (2000). Epistemologia. Tom I: Zarys historyczny i problemy metateoretyczne. Kraków: Wyd. Aureus. Woleński, J. (2001). Epistemologia. Tom II: Wiedza i poznanie. Kraków: Wyd. Aureus. Woleński, J. (2003). Epistemologia. Tom III: Prawda i realizm. Kraków: Wyd. Aureus. Wolfe, J. M. (1994). Guided search 2.0.: A revised model of visual search. Psychonomic Bulletin and Review, 1, 202-238. Wolfe, J. M., Cave, K. R., Franzei, S. L. (1989). Guided search: An alternative to the feature integration model for visual search. Journal of Experimental Psychology. Human Perception and Performance, 15, 419-433. Wolfe, J. M., Yu, K. P., Stewart, M. I., Shorter, A. D., Friedman-Hill, S. R., Cave, K. R. (1990). Limitations on the parallel guidance of visual search: Color x color and orientation x orientation conjunctions. Journal of Experimental Psychology. Human Perception and Performance, 16, 879-892. Wollberg, Z., Newman, J. D. (1972). Auditory cortex of squirrel monkey: Response patterns of single cells to species-specific vocalizations. Science, 175, 212-214. Woltz, D. J., Bell, B. G., Kyllonen, P. C., Gardner, M. K. (1996). Memory for order of operations in the acquisition and transfer of sequential cognitive skills. Journal of Experimental Psychology: Learning, Memory, and Cognition, 22, 438-457. Woltz, D. J., Gardner, M. K., Bell, B. G. (2000). Negative transfer errors in sequential cognitive skills: strong-but-wrong sequence application. Journal of Experimental Psychology: Learning, Memory, and Cognition, 26, 601-625. Woodworth, R. S., Schlosberg, H. (1963). Psychologia eksperymentalna (t. 1, tłum. A. Lewicki, E. Vielrose; t. 2, tłum. J, Ekel, A. Lewicki). Warszawa: PWN.
720
Bibliografia
Woodworth, R. S., Sells, S. B. (1935). An atmosphere effect in formal syllogistic reasoning. Journal of Experimental Psychology, 18, 451-460. Wright, P., Lickorish, A. (1994). Menus and memory load: Navigation strategies in interactive search tasks. International Journal of Human-Computer Studies, 40, 965-1008. Yantis, S. (1993). Stimulus-driven attentional captureand attentional control settings. Journal of Experimental Psychology. Human Perception and Performance, 19, 676681. Yantis, S., Hillstrom, A. P. (1994). Stimulus-driven attentional capture: evidence from equiluminant visual objets. Journal of Experimental Psychology. Human Perception and Performance, 20, 95-102. Yantis, S., Jonides, J. (1984). Abrupt visual onset and selective attention. Evidence from visual search. Journal of Experimental Psychology: Human Perception and Performance, 10, 601-621. Yerkes, R. M., Dodson, J. B. (1908). The relation of strength of stimulus to rapidity of habit formation, jou rn al of Comparative Neurology and Psychology, 18, 459M82. Young, A. W., Hellawell, D., Hay, D. C. (1987). Configurational information in face perception. Perception, 16, 747-759. Young, D. A., Freyslinger, M. G. (1995). Scaffolded instruction and the remediation of W isconsin Card Sorting Test deficits in chronic schizophrenia. Schizophrenia Research, 16, 199-207. Yuille, J. C., Cutshall, J. L. (1986). A case study of eyewitness memory of a crime. Journal of Applied Psychology, 71, 291-301. Zaragoza, M. S., Lane, S. M. (1994). Source Misattributions and the Suggestibility of Eyewitness Memory. Journal of Experimental Psychology: Learning, Memory, and Cognition, 20, 934-945. Zaragoza, M. S., Mitchell, K. J. (1996). Repeated exposure to suggestion and the creation of false memories. Psychological Science, 7, 294-300. Zeitz, C. M. (1997). Some concrete advantages of abstraction: How experts’ representa tions facilitate reasoning, W: P. J. Feltovich, K. M. Ford (red.), Expertise in context: Human and machine (s. 43-65). Menlo Park, CA, US: American Association for Artificial Intelligence. Zenger, B., Fahle, M. (1997). Missed targets are more frequent than false Alarms: A model for error rates in visual search. Journal of Experimental Psychology: Human Perception and Performance, 23, 1783-1791. Zhu, Y.-X. (1989). Historical contribution of Chinese scholars to the study of the human brain. Brain and Cognition, 11, 133-138. Zimmer, H. D. (2004). The construction of mental maps based on a fragmentary view of physical maps. Journal of Educational Psychology, 96, 603-610. Zwaan, R. A., Radvansky, G. A. (1998). Situation models in language comprehension and memory. Psychological Bulletin, 123, 162-185.
Indeks nazwisk (opracowała Anna Szymańska)
A Abelson Robert P. 129, 130, 133, 140 Abrahamsen A. 23 Abrahamson A. A. 475 Ackerman Philip L. 250 Adams Fred 406 Adams J. A. 208 Adelson Beth 169 Akhavein Rokny 87 Alampay Delia A. 297 Alba Joseph W. 538 Allen B. P. 411 Allport D. Alan 35, 37-39, 82, 179, 180, 183, 185, 186, 195, 209-212, 215, 220, 221, 236, 258 Anderson Barry F. 536 Anderson John Robert 66, 81, 89, 90, 97, 127, 130, 157, 159-166, 169, 171, 218, 219, 221, 232, 250, 251, 303, 324, 366, 509, 511, 536 Anderson K. 224 Anderson Michael C. 261 Anderson Richard C. 131 Anglin Jeremy M. 113 Antonis B. 82, 179, 180, 183, 209-211, 215, 236 Anzai Yuichiro 523 Appelbaum Irene 52 Arbuthnott Katherine D. 219 Armony L. 219 Armstrong Sharon L. 115 Arystoteles 61, 65, 102, 139, 168 Atchley Paul 182, 271
Atkinson Richard C. 46, 47, 49, 234, 321-323, 327, 328 Attneave Fred 432 Atwood Michael E. 509, 510 Au Therry Kit-Fong 602 Austin George A. 103, 117 Averbach E. 342 B Baar Bernard J. 221 Bacon Alison M. 453 Baddeley Alan D. 139, 202, 206, 207, 267, 269, 273-276, 285, 332, 344, 346, 349-355, 369, 370, 384, 385, 408, 414, 415, 597 Bahrick Audrey S. 380 Bahrick Harry P. 380, 381, 396 Bahrick Lorraine E. 380 Bailey Todd M. 142 Bain John D. 356 Baker 477 Baker C. H. 207, 208, 209 Baker S. C. 496, 497 Balas Robert 142 Ball Thomas M. 72, 73 Ballard Philip Boswood 396, 401, 402 Ballstaedt Steffen-Peter 501, 528 Balota David A. 413 Balthazard Claude 565 Bannon 91, 92 Barclay J. Richard 90 Bargh John A. 231-233 Barlow H. B. 283, 284 Baron Jonathan 424, 433-435
Barrouillet Pierre 469 Barsalou Lawrence W. 371, 518 Barston Julie I. 453, 478 Bartlett Frederic 129, 376 Bassok Miriam 493 Bastedo J. 220, 258 Batik 536 Bauer Ben 68, 70, 71 Bayes 558, 559, 560 Baylis G. C. 180, 198, 200 Beach Cheryl M. 617 Beasley Charles M. Jr 165 Bechtel William 23, 35, 36, 47 Bednarek Hanna 139 Beeghly Marjorie 122 Beethoven Ludwig van 139 Begg I. 450, 452 Beiring E. 293 Bell Brian G. 250 Bellezza Francis S. 336 Bellugi Ursula. 112 Benson D. Frank 307 Berardi-Coletta Bernadette 528 Bergen James R. 181, 196, 197 Bergstrom Stev S, 289 Berlin Brent 112, 600 Berlyne David 33, 425-427, 431, 432, 437, 438, 441 Bernbach H. A. 338 Bernstein Ira H. 179, 209-2 H
Berridge 389 v Berry Dianne C. 145-147 Bettman James R. 578 Białystok Ellen 610
722
Indeks nazwisk
Biederman Irving 185, 293, 294, 309 Biela Adam 474 Bienicewicz-Krasek Dorota 336 Binet 520 Binford J. R. 208 Birkhoff Garrett 441 Bjork Elizabeth Ligon 261 Bjork Robert A. 261, 330 Black John B. 131 Blake Randolph 279, 283-285, 288, 290, 292 Blanchette Isabelle 474 Blatt S. J. 437 Blickle T. 293 Blinkford J. R. 207 Bloom Alfred H, 602 Bloom Benjamin S. 524 Bloom L, 606 Bloom Paul 608 Bloomfield Leonard 609 Bobrow Daniel G. 231 Boden Margaret Annette 518 Bolesław Chrobry 394 Bolozky Samuel 315 Bolte Annette 568 Bonatti Luca 472 Bossini Serge 88 Bousfield Weston Ashmore 382, 426 Bovair Susan 512 Bower Gordon H. 89, 119, 131, 159, 345, 383, 407 Bowers Kenneth S. 565, 568, 569 Bradley Pamela 532 Braine Martin D. S. 460, 463-465 Brainerd Charles J. 251 Braisby Nick 600 Bransford John D. 90, 118, 337, 338, 384, 512, 513, 624, 626 Brebner John 212 Brehaut Jamie C. 220, 258, 260 Bretherton Inge 122 Brewer W. F. 369 Brickner M. 217 Briggs G. E. 398 Bright James E. H. 147, 166
Broadbent Donald Eric 32, 48, 146, 178-180, 187-194, 206, 209-211, 228, 255, 257, 280 Broadbent M. 255, 257 Brodbeck David R. 338 Broder Lois J. 524 Brooks Lee R. 142, 147 Brophy Dennis R. 518 Brown 605 Brown John 343 Bruce Vicki 292, 313, 314 Bruner Jerome Seymour 61, 103, 117, 279, 282, 295, 310 Buchanan Mary 353 Buckner Randy L. 39 Bugelski B. R. 297 Bullemer Peter 146 Bundesen 271 Bundesen Claus 181, 198 Burger Remca 270 Burgess Paul 273 Burkell Jacquie 214, 215, 254 Burns Terrence E. 409 Buss David M. 52 Buyer Linda S. 528 Buzan Barry 394 Buzan Tony 394 Byrne Michael D. 512 Byrne Ruth M. J. 445, 452, 461, 462, 465, 467, 470 C Cameron Sandra 220, 258 Campbell Anne 53 Campbell Jamie I. D. 87, 88 Cantor Nancy 522 Caplan David 623 Carello Claudia 311 Carlson Richard A. 142, 218, 219, 524 Carpenter Patricia A. 358, 453, 592, 597, 623 Carraher David William 423, 571 Carraher Terezinha Nunes 423 Cary M. 524 Case Robbie 430 C asteneda-M endez Kicab 234, 238 Castro Fidel 162
Cattell Raymond Bernard 531, 532 Cave Kyle R. 180, 181, 198, 199 Caverni 473 Ceci Stephen J. 423 Chajczyk D. 236, 244, 255 Challis Bradford H. 338 Chan C. S. 169 Chapman A. P. 451 Chapman L. J. 451 Charness Neil 359, 360 Charniak E. 158 Chartrand Tanya L. 231, 232 Chase William G. 77-79, 169, 170, 393, 488 Chater Nicholas 458 Cheesman Jim 222 Chen Z. 475, 535 Cheng Patricia W. 171 Cherry E. Collin 179, 180, 187 Chetwynd A. 244, 252, 253 Chi Michelene T. H. 168, 170, 172 Chipman Susan 66 Chlewiński Zdzisław 89, 107, 111, 128-130, 133 Chmiel Nik R. J. 258 Chomsky Noam 32, 34, 145, 597, 598, 603-605, 624 Chorev Ziv 185, 219, 220 Chown Sheila M. 530 Christal Raymond E. 469 Christensen-Szalanski Jay Jo seph Jude 519 Christianson Kiel 623, 624 Chuderski Adam 230, 357, 358 Chun Marvin M. 249, 271 Churchland Patricia S. 34 Clapper J. 293 Clark D. D. 479 Clark Eve V. 149, 151 Clark Herbert H. 76-79, 452, 453 Clark James. M. 84, 88 Clark Mark H. 209-211 Clark Michał C. 383 Clark Steve E. 406 Cleeremans Axel 141, 143, 147
Indeks nazwisk Cohen B. G. 426 Cohen Gillian 352 Cohen Neal J. 397 Cohen Yoav A. 271 Cole Michael 422 Cole Sandra 249 Coles Michael G. H. 240, 253, 254, 257 Collette Fabienne 269 Collins Allan M. 101, 126-128, 152-156, 163, 363-365, 370, 412 Collins J. F. 342 Colquhoun W. P. 202, 206, 207 Conezio Jerzy 404 Conrad Carol 107, 127, 154 Conrad R. 346, 352 Conway Andrew R. A. 522 Conway Martin A. 261, 262, 369, 371 Cook Vivian J. 610 Cooper C. 533 Cooper Lynn A. 65, 67-70, 75 Corballis M. C. 68, 70 Corcoran D. W. J. 208 Coriell A. S. 342 Corkill Alice }. 268 Cornoldi Cesare 84, 394 Corroyer Denis 520 Corsi 354 Corteen R. S. 192, 224, 225 Cosmides Leda 52, 143, 423, 459, 460 Couson R. L. 172 Cowan G. N. Jr 287 Cowan Nelson 329, 343, 354-357 Cowan William B. 240 Cox J. R. 459 Craig A. 207 Craik Fergus I. M. 49-51, 90, 192, 234, 332-340, 360, 367, 368, 377, 378, 386, 387 Cranston Margaret 258 Crisp Jennie 180, 198 Crowder Robert G. 287, 342 Csapo Kal 84, 85, 90, 368 Csikszentmihalyi Mihaly 513, 518
Cummins Denise Delarosse 479 Cunitz Anita R. 329, 330 Cuttshall J. L. 408 Czernecka Karolina 18 Czerlinski J. 578 Czerwiński M. 174 Czyżewska M. 191, 231
D Dallas M. 224 Dallenbach K. M. 400 Damasio Antonio R. 269 Damasio Hanna 269 Daneman Meredyth. 358, 623 Daniel R. S. 208 Dark Veronica J. 178, 193, 255, 259 Darvin Christopher J. 287, 342 Davidoff Jules 600 Davidson Janet E. 519, 531, 538, 539 Davidson Patrick S. R. 409 Davies Alison 211 Davies David Roy 145, 182, 183, 200-202, 207-209, 224, 270 Davies G. M. 313 Davies Ian 600 Davies M. 145 Davis J. M. 613 De Beni Rossana 394 De Jong Ritske 219, 240, 253-255 De Vooght Gino 268, 352 Deese J. 207, 382, 406, 412 Degel Joachim 388 Dehaene Stanislas 87, 88 Delaney Peter F. 359 Dell Gary S. 616, 618 Della Sala Sergio 275, 351 Delrue Gael 269 Dempster Frank N. 251, 268 Denis Michael 91, 92 Dennett Daniel C. 34, 230, 276 Dennis Ian 481 Denny J. 450, 452 Deregowski Jan 298 DeRenzi E. 312
723
Descartes Rene (Kartezjusz) 40, 137 Deutsch D. 179, 191-194, 211 Deutsch J. A. 179, 191-194, 211 Dewey G. I. 142 Dickman Scott J. 249 Dienes Zoltán 145, 147, 198 Dijk Teun A. van 619, 624, 625 Dobbs A. R. 122 Dodson Chad 411 Dodson John B. 208 Dominowski Roger L. 528 Donders Franciscus Corne lius 40-43 Dorner D. 543, 544 Dosher Barbara Anne 235 Dostojewski Fiodor 552 Douglass Scott 160, 164 Doyon Celine 469, 470 Dreistadt R. 535, 536 Driver Jon 180, 181, 186, 195, 198, 200, 209, 258, 260 Duch Wlodzislaw 37 Duchnicky Robert L. 81 Dulaney Cynthia L. 533 Dulany Donelson E. 142 Dumais Susan T. 86, 231, 233, 239 Dunbar Kevin 474 Duncan J. 25, 178, 181, 192, 197, 210, 257, 267, 269, 271 Duncan John 275 Duncker Karl 525-527, 532, 534 Dunn D. 224 Dupeyrat Caroline 452 Diirer Albrecht 92 D’Zamura M. 181, 198 E Eagly Alice H. 533 Ebbinghaus Hermann 323, 377-379, 396, 397, 399 Eddy David M. 558 Edelman Gerard M. 67 Edelstein Barry A. 209-211 Edwards Ward 572 Egan Dennis E. 509, 511
724
Indeks nazwisk
Egeth H. 196, 198, 349 Egeth H. E. 255 Einstein Albert 168 Einstein Gilles O. 361, 362 Ekstrand B. R. 400 Ellis H. D. 313 Ellis M. Charles 481 Ellis N. C. 345, 353 Ellis Norman R. 533 Ellsworth P. C. 410 Elman Jeff L. 53, 607 Emerson Michael J. 252, 268 Emslie Hazel 275 Engel E. 311 Engle R. W. 358 Engstler-Schooler Tonya Y. 411 Enstein G. O. 361, 362 Ericsson K. Anders 170, 358, 359, 393, 501 Eriksen B. A. 255-259, 263 Eriksen C. W. 210, 255-259, 263, 342 Escher Maurits Cornelis 297 Etherton Joseph L. 248, 275 Evans Jeffrey 219 Evans Jonathan St. B. T. 445, 446, 450, 453, 458, 465, 478-481 Evett Lindsay J. 225, 316 Exner 40 Eysenck Hans Jurgen 209, 329 Eysenck Michael W. 31, 63, 208, 209, 289, 290, 293, 308, 330 Eysenck Sybil B. G. 31 F Fagot C. 210 Fahle Manfred 249 Falkowski Andrzej 433, 584 Faloon Steve 393 Farah M. J. 312 Farr Marshall J. 168, 170 Farrand Paul 394 Fastame M. C. 354 Favreau D. 208 Fehr Beverley 122 Feltovitch Paul J. 172 Ferreira Fernanda Revista 607, 617, 621, 624 Festinger Leon 587
Fillenbaum S. 481 Findley Pamela 479 Finke Ronald A. 63, 67, 538 Fischer Bernd 178, 327-329, 331, 344 Fischler I. 227 Fisher Ronald P. 386, 387 Fisk Arthur D. 238 Fiske Susan T. 25, 383 Fitter M. 208 Flagg Paul W. 331, 391 Flake W. L. 533 Flavell Eleanor R. 430 Flavell John H. 139, 430 Fleishman Edwin A. 397 Fleszner E. 103 Fodor Jerry A. 34, 51-53, 145 Ford M. 453 Fowler Carol A. 227 Francolini C. N. 255 Francuz Piotr Jan 119 Frank Janis 219 Franklin H. C. 402 Frankman J. P. 208 Franks Jeffrey J. 90,118, 337, 338, 624 Franzel Susan L. 199 Frazier Lyn 623 Frensch Peter Alex 171, 544 Freyslinger M. G. 533 Friedman Alinda 131 Friedman Naomi P. 252, 253, 257, 263-268, 276 Frisby John P. 317 Frith 477 Fritzgerald J. M. 402, 403 Frost N. 382, 383 Funke Joachim 542-544, 546 G Gainotti Guido 292 Galanter Eugene 30, 193, 248 Gall 267 Galton Francis 65 Garbart H. 198 Gardiner J. M. 405 Gardner G. T. 234, 238 Gardner Michael K. 250 Garrett Merrill F. 192, 224, 614, 615 Gathercole Susan E. 352, 597 Gattis Merideth 452 Gehringer W. L. 311
Geisler W. S. 327 Gelade Garry 180, 181, 190, 195, 196, 222 Gelman R. 571 Gentner Dedre 474, 475,493, 535 Getzels Jacob W. 513 Ghiselin Bewster 537 Gibson E. J. 305, 306 Gibson James J. 62, 280, 281, 295, 309-312 Gick Mary L. 475, 502, 516, 534 Gigerenzer Gerd 51, 52, 558-560, 576-578, 588 Gilbert Sam J. 273 Gilhooly K. J. 450, 452 Gilmore David J. 452, 453 Giotto 473 Giraux Pascal 88 Glanzer Murray 329, 330 Glaser Robert 168, 170, 172, 173 Glass Arnold Lewis 124,128, 355, 495 Gleason Henry A. 599 Gleitman Henry 115 Gleitman Lila R. 115, 145, 608 Glenberg Arthur 406 Glisky Elizabeth L. 409 Glucksberg Sam 101, 107, 108, 116, 287 Gobet Fernand 170, 488 Godden Duncan R. 369, 384, 385, 408 Godijn Richard J. 238, 270 Goel Vinod 470 Goldman B. A. 533 Goldstein Daniel G. 577, 578 Goldstone Robert L. 518 Golinkoff Roberta 608 Gombrowicz Witold 549 Goodman Cecile C. 279, 295 Goodman G. D. 227 Goodnow Jacqueline J. 103, 117 Gopher Daniel 214-217, 219 Gordon Ian E. 311 Goschke Thomas 219, 568 Gough Harrison G. 532 Gould Stephen J. 422
Indeks nazwisk Goralski Andrzej 484, 498 Graesser Arthur C. 131, 625 Graf Peter 140, 141 Graham C H. 34 Graham George 23 Grant Elizabeth R. 525, 527 Gray J. A. 188 Green David Marvin 202, 206, 209, 479 Green Frances L. 430 Green J. 190, 222 Greenberg J. P. 307 Greeno James G. 492, 495, 502-505, 509, 511, 529 Greenspan Y. 219 Greenwald A. G. 211, 215 Gregory Margaret 189, 191, 192, 206 Gregory Richard. Langton 297, 311 Grice G. R. 613 Grice Herbert Paul 464, 465, 621, 627 Grice Paul Herbert 612 Griggs R. A. 459 Grigorenko E. L. 145 Griswold B. B. 223 Groot Adriaan D. de 170 Groot Annette M. B. de 366 Grosjean François 609 Gruszka Aleksandra 610 Guetzkow Harold 530 Guilford Joy P. 487, 530 Guilford R. N. 346 Guynn Melissa J. 362
H H. J. A (pacjent) 292 H. M. (pacjent) 396, 397, 414, 415 Ha Young-Won 473 Haber Ralph Norman 404 Hadamard Jacques 537 Halcomb C. G. 207 Halford Graeme S. 356 Hall J. F. 406 Halpern A. R. 383 Halpern Diane F. 428, 429 Hambleton R. K. 520 Hampton J. A. 120-122 Handley Simon J. 453 Harabedian 207, 208 Harlow Robert E. 522
Harmon M. G. 519 Harnish Robert M. 22,27, 28, 35, 36 Harris Richard J. 601, 606, 627 Harrison Robert H. 426 Harshman E. J. 490 Hasher Lynn 232, 233, 239, 258, 260, 388 Hashtroudi Shahin 411 Hay Dennis C. 314 Hayes A. 181, 198 Hayes John R 508, 512 Hebb Donald O. 33, 279 Hegel Georg Wilhelm Fried rich 430 Heinz Steven P. 192, 193, 210, 249 Hellawell Deborah 314 Helmholtz Hermann von 40 Henik Avishai 239, 241, 245, 251, 253 Henley Nancy M. 475, 476 Hennelly R. A. 345, 353 Hennessy Enid 394 Hicks Jason L. 268, 361, 362 Higham Philip A. 141 Hildreth Ellen 307 Hillstrom A. P. 181 Hilton D. J. 479 Hirschfeld Lawrence A. 571 Hirsh-Pasek Kathy 608 Hirst William 215, 217 Hitch Graham J. 274, 332, 345, 349-351 Hoffman Donald D. 309 Hoffrage Ulrich 558-560, 578, 580 Hofman J. E. 255, 258, 259 Holding D. H. 402 Holding Dennis 504 Holender Daniel 192, 222, 224 Hollingworth Andrew Revis ta 624 Hollins Tara S. 412 Holyoak Keith J. 124, 128, 171, 446, 472, 475-478, 495, 502, 534, 537 Horbaczewski Tomasz 198, 223 Horstmann G. 254, 255
725
Horton William S. 612, 613 Hovland Carl Iver 380 Howard D. 292 Howard Darlene V. 106 Howard Ian P. 289 Howerter Amy 268 Hsieh Shulan 186, 220, 221 Hubbard Timothy L. 76 Hubei David H. 284 Hull A. J. 346, 352 Humphreys Glyn W. 25, 178, 181, 197, 225, 257, 292, 316 Humphreys M. S. 356 Hunt Earl B. 77,78, 184, 368, 393, 453, 498, 523 Hunziker Hans Werner 530 Hussain Fearzana 394 Hyde Thomas S. 336 Hyman I. E. 409, 413
I Inhoff Albrecht W. 315 Intons-Peterson Margaret Jean 75, 76, 91, 92, 94 Irion Arthur L. 398 Irwin Harvey J. 199 Isen Alice M. 586 Itellson W. H. 290, 296
J J. B. (pacjent) 292 J. C. U. (pacjentka) 292 Jackoby L. L. 367 Jacobs Arthur M. 316 Jagielski M. 236 James William 47, 178, 221, 329 Jaspers J. M. 479 Jaśkowski Piotr 232 Jausovec N. 530 Jenkins J. G. 400 Jenkins James J. 336 Jensen Arthur R. 44, 329 Jerison H, J. 183, 208 Jersild Arthur Thomas 184, 185 Jha A. P. 271 Johnson Carla J. 84 Johnson Eric J. 578 Johnson Kathy E. 112 Johnson Marcia K. 410, 411, 626
726
Indeks nazwisk
Johnson-Laird Philip N. 95, 96, 445, 452, 454, 459, 461, 465-471, 478 Johnston James C. 219 Johnston William A 178, 192-194, 210, 211, 249, 255, 259 Jolicoeur Pierre 68, 70, 71 Jonas A. 306 Jones J. L. 255, 257 Jones K. N. 182, 201 Jones Randolph 536 Jonhston J. 218 Jonides John 182, 196, 199, 270, 349 Joordens Steve 141 Jost A. 380 Ju G. 293 Julesz Bela 181, 196, 197 Juola J. F. 346 Just Marcel Adam 453, 592, 597, 623
K Kahn Barbara E. 586 Kahneman Daniel 138, 180, 183, 184, 209, 212-216, 231, 236, 244, 255, 266, 270, 275, 424, 503, 550-555, 557, 561-563, 581-583 Kalmar David 215, 217 Kane Michael J. 258, 260 Kanizsa Geatano 289, 290 Kantona G. 528 Kaplan Craig A. 157, 501 Kapur Shitij 339 Karmiloff-Smith Annette 56 Kartezjusz zob. Descartes Rene Kasparow Garri 547 Kay M. C 314 Kay Paul 600 Keane Mark T. 63, 289, 290, 293, 308, 330 Keele Steven W. 106, 116-119, 122, 128, 221 Kelly George A. 31, 34 Kemp Simon 61, 65, 101 Kempelen Wolfgang von 547 Kemps E. 354 Keppel Geoffrey 266 Keren G. 257
Kerkhof G. A. 207, 238 Kersting Martin 544 Keysar Boaz 612, 613 Khoo Boo Hock 524 Kielar-Turska Maria 608 Kihlstrom John F. 337 Kimchi Ruth 68, 75 Kincaid W. D. 426 King Jonathan W. 623 Kintsch Walter 113, 170, 358, 359, 406, 619, 624-626 Kirker William S. 334, 336 Kiss George 352 Klahr David 512 Klapp Stuart T. 247 Klauer Karl Christoph 454 Klawiter Andrzej 279 Klayman Joshua 473 Klein Stanley B. 337 Klem Adena 532 Kliegl Reinhold 357 Kline P. J. 165, 533 Kluwe Rainer H. 544 Knaeuper A. 543 Knippenberg Ad van 261, 262 Knoblish Guenther 525 Knowlton B. J. 476-478 Koedinger Kenneth R. 169 Koehler Jonathan J. 561 Koelega H. S. 208, 209 Koffka Kurt 301 Koh Kyunghee 534 Kohler Wolfgang 301, 489 Kohs Samuel Camin 520 Kolańczyk Alina 122, 233, 269, 271, 272, 536 Kolers Paul A. 81 Kolodny Jonathan 275 Komatsu Lloyd K. 129 Kopernik Mikołaj 569 Koriat Asher 68, 75 Korving H. J. 207, 238 Kossakowska Małgorzata 263 Kosslyn Stephen Michael 65, 67, 72-76, 81, 87, 90, 93, 94, 96, 313 Kossowska Małgorzata 258, 522 Koster Egon Peter 388 Kotovsky Kenneth 508, 517 Kowalska D. M. 414
Kowalski Daniel J. 131 Kozielecki Jozef 31, 104, 433, 436, 437, 490, 572 Kramer Arthur F. 182, 252, 271 Kramer Deirdre A. 430 Kreuzig H. W. 544 Krkovic A. 208 Kruglanski Arie W. 532 Kuchmerick 511 Kuhl Julius 568 Kuhn Thomas 31 Kuiper Nicholas A. 334, 336 Külpe 102 Kurcz Ida (Idalia) 116, 128, 129, 595, 596, 604, 607 Kushmerick N. 511 Kvavilashvili Lia 360 Kwarciak Boguslaw 434 Kyllingsbsek Soren 181, 198 Kyllonen Patrick C. 250, 469, 523
L LaBerge David 257 Lackner James R. 192, 224 Lackum W. J. V. 388 Ladefoged Peter 240 La Mettrie Julien Offray de 590, 627 Landau Joshua D. 361 Landauer Thomas K. 86 Lane S. M. 410 Langan-Fox Janice 568 Langley Pat 536 Lansman Marcy 184 Larkin Jill H. 512, 524 Larsen Steen Folke 367 Larson Gerald E. 249 Lavie Nillie 192 Leahey Thomas H. 601, 606, 627 Leake D. 171 Lebiere Christian J. 159, 160, 511 Lecas Jean-Franqois 469 Lee Stephanie C. 368 Legrenzi Maria Sonino 459 Legrenzi Paolo 459 Lehrer R. 521 Lehrl Siegfried 178, 327-329, 331, 344 Leister David 239, 241, 245
Indeks nazwisk Lenneberg Eric H. 108, 606 Lesgold Alan M. 172, 173, 383 Lettvin J. Y. 283 Levelt Willem J. M. 240, 615-618 Levine Gustav 204 Levine H. S. 314 Levine Michael W. 278 LeVoi Martin 352 Lewicka Maria 445, 446, 575 Lewicki Andrzej 99, 103-107, 121 Lewis C. H. 161, 162 Lewis V. J. 274 Leyden Gerv 488 Lickorish A. 545 Liedholm E. P. 223 Lindsay D. Stephen 410, 411 Lindsay Peter H. 333, 367, 368 Linton Marigold 370 List John A. 572, 582 Littlefield Joan 521 Liu 267 Lobaugh Nancy J. 249 Lobouvie-Vief G. 430 Lochhead Jack 487, 491 Lockhart Robert S. 49-51, 90, 192, 234, 235, 332-334, 337-340, 360, 368, 377, 378 LoebM. 207, 208 Loftus Elisabeth F. 101, 103, 112, 114, 126, 128, 163, 363-365, 374, 405-407, 409-413 Loftus Geoffrey R. 374, 405 Logan Gordon D. 101, 103, 112, 128, 232, 239-241, 245-248, 250, 253-255, 273, 275 Logie Robert H. 275, 350-354 Lohman David F. 523 Lorch Robert F. 366 Lorenz Konrad 288 Love T. 393 Lowe Christine 252, 260 Lubart Todd I. 529 Lucas George 443, 444 Luce R. Duncan 193, 248, 432
Luchins Abraham S. 494, 510, 530, 531, 533 Luchins Edith H. 494, 510, 530 Luck Steven J. 354 Luftus Elisabeth F. 154-156 Luh Chih Wei 404 Lustig Cindy 388 Lynch D. J. 520 Lysak H. 122 M Mac Lane Saunders 441 Macaruso Paul 86, 88 McClelland James. L. 49, 53, 130, 389 McCloskey Michael 86, 88, 101, 107, 108, 116, 570 McClure P. 85 McConkie George W. 315 McCullogh W. S. 283 McDaniel Mark A. 361, 362 McDermott D. 158 McDermott Katheleen B. 409, 412, 413 MacDonald Brennan 312 McDonalds William T. 398 McElree Brian 235, 353, 356, 357 MacFarland B. P. 207 McGarry Susan J. 516 McGeoch John A. 398 MacHale D. 487, 490 Machera M. 336 Mack Arien 179, 198, 223, 227 McKay D. P. 234, 238 MacKay Donald G. 49 , 224 McKeithen Katherine B. 172 Mackiewicz Robert 472 Mackinnon A. J. 543 McKoon Gail 625 Mackworth J. F. 208 Mackworth N. H. 182, 200, 201, 208 Maclemans 147 MacLeod Colin M. 77-79, 241, 243, 244, 253, 266, 453, 523 McLeod Peter 54, 179, 180, 181, 183, 198, 212, 215 McNaughton Bruce L. 389 McNeil Barbara J. 582
727
McNemar O. W. 530 MacQueen G. M. 260 Madigan Stephen A. 82, 84 Maier Frank H. 546 Maier Norman R. F. 514, 515, 532 Malewicz Kazimierz 74 Malone D. R. 314 Małysz Adam 554, 555 Mandl Heinz 501, 528 Manktelow Ken 445 Marcel Anthony J. 222 Marchetti C. 354 Marcus S. L. 463 Markman Arthur B. 151, 485, 498 Markovits Henry 469, 470 Marks G. 208, 210 Markson Lori 606 Marmor Gloria Strauss 75, 76, 308 Marr David 280, 284, 293, 307-310 Marsh Elizabeth J. 368 Marsh Richard L. 268, 361, 362 Marslen-Wilson William D. 620 Maruszewski Tomasz 13, 18, 27, 64, 69, 102, 104, 106, 107, 110-112, 128, 283, 369, 370, 393, 402, 403, 410, 425 Masao Ohmi 289 Masson Michael E. J. 510 Matejko Jan 74 Matessa Michael 160, 164 Mathews Andrew 244 Mathews Robert C. 142, 146, 147 Matlin Margaret W. 32, 556 Matthews N. N. 77, 78, 453, 523 Maturana H. R. 283 May Cynthia 258, 260, 261 Maybery Murray T. 356 Mayr Ulrich 221 Medin Douglas L. 101, 107, 111, 116, 121, 123, 485, 498 Mednick Martha T. 565, 566 Mednick Sarnoff A. 565, 566
728
Indeks nazwisk
Meiran Nachshon 185, 219, 220 Mełton A. W. 388 Mendelsohn G. A. 223 Merikle Philip M. 141, 222, 224 Mervis Carolyn B. 100, 112, 114, 116, 119 Metcalfe Janaet 537 Metzler Jacqueline 68-70 Meulemans T. 147 Meyer Antje S. 617 Meyer David E. 193, 219, 249 Michaels Claire F. 311 Michał Anioł (Michelangelo Buonarroti) 92 Mieszko I, książę pol. 394 Miklas M. 336 Miller Geoffrey F. 576 Miller George A. 30, 32, 47, 328, 329, 344, 351, 432 Miller R. Scott 113 Milner Brenda 354 Minsky Marvin L. 129, 132, 134, 140, 159, 581 Miró Joan 92 Mitchell K. J. 410 Mitchell R. F. 193, 257, 282, 305 Miyake Akira 252, 253, 257, 263-269, 276 Mo L. 475, 535 Monaghan Brynn E, 402 Monsell Stephen 185, 218, 219, 221, 272 Moore David R. 285 Moray N. 180, 188, 208, 210, 223 Morgenstern Oskar 572 Morris C. D. 337, 338 Morris H. H. 314 Morris L. R. 257 Morris Neil 469 Morris R. K. 316 Morse Linda W. 519 Morton John 287 Moulin Christopher J. A. 261, 262 Mowrer O. Hobart 603 Moyer Robert S. 86 Mumford Michael D. 475, 517, 518, 534
Munsterberg Hugo 387 Murdock B. B. Jr 344 Murdock Bennett B. 406 Murphy Gregory L. 101, 107, 111, 116, 121 Murphy S. T. 233 Murrell G. A. 207 Musch Jochen 454 Myers David G. 563, 564 N Nadel Lynn 321 Nagy V. 208 Najder Krzysztof 151, 152, 334 Nakayama Ken 196 Naples Adam J. 513, 518, 530 Napoleon I Bonaparte, cesarz Francuzów 161, 162, 320 Naumer Birgit 454 Navon David 214-217, 244, 301, 303 Nebes Robert D. 402 Neely James H. 365, 366 Neill W. Trammell 221, 227, 251, 258-260 Neisser Ulric 25, 31, 32, 49, 64, 140, 326, 340, 422, 498 Necker 300, 301 Neumann John V. von 572 Neumann P. G. 118,119, 122 Newell Allen 63, 157, 484, 485, 498, 500-502, 506, 508, 530, 537, 547 Newirth Joseph 426 Newman J. D. 285 Newport Elissa L. 112 Newstead Stephen E. 445, 453, 454, 481 Nęcka Edward 45, 63, 132, 184, 186, 208, 213, 215-217, 230, 232, 249, 257, 266, 270, 333, 336, 421, 426-428, 446, 451, 474, 475, 481, 484, 488, 498, 499, 502, 503, 508, 514, 519, 522, 536, 538, 541, 550,555,561, 564, 569, 610 Nicholas David W. 627 Niedźwieńska A. 366, 369, 409 Niewiadomska G. 390 Nigg Joel T. 252, 262, 263,265
Ninio A. 180, 183, 184, 209, 214, 215 Nisbett Richard E. 446, 472, 551 Nishihara H. Keith 293, 308, 309 Nissen Mary J. 146, 271 Noice Helga 404, 405 Noice Tony 404, 405 Norman Donald A. 129, 130, 218, 230, 231, 269, 271-273, 320, 321, 328, 333, 352, 367, 368 Norman G. R. 360 Norman Joe 68, 75 Nosal Czesław S. 18, 331, 498 Novick Laura R. 521, 522 Nunes Terezinha 571
O Oakhill Jane Vivienne 454 Oaksford Mike 458 Oberauer Klaus 349, 357, 544 O'Brien David P. 463, 464 Obuchowski Kazimierz 99 Ockham Wilhelm 61, 65,101, 616 Ogden Charles Kay 592 Ogden W. C. 271 O’Hara W. P. 257 Ohlsson Stellan 538 Ohme Rafał K. 233, 312 Ohta Shinsuke 312 Okagaki Lynn 143 Olivie T. 274 Orchard-Lisle V. 292 O’Regan J. Kevin 316 O’Reilly Randall C. 389 Ortony Andrew 129 Orwell George 601 Orzechowski Jarosław 139, 357, 358, 476, 488, 519, 522, 541 Osherson Daniel N. 121 Ostry D. 208, 210 Otten Leun J. 339 Owen Adrian M. 269, 273 P Pacteau Chantal 147 Paivio Allan 62, 63, 65, 66,
Indeks nazwisk 76, 77, 80-86, 90, 93, 94, 96, 332, 368, 377, 391 Palmer John C. 410, 411 Palmer Steven E. 28, 298 Pani John R. 114 Papagno Constanza 597 Papcun George 240 Parasuraman Raja 182, 183, 200-202, 207-209, 270 Parker James F. Jr 397 Parker Kevin 565 Parkinson Stanley 204 Pascal Blaise 278 Pascuale Leone Juan 430 Pashler Harold 195,210,254, 255 Patraszewska Małgorzata 252 Pauker Stephen G. 582 Pawłów Iwan P. 602 Payne John W. E. 578, 584 Penrose 297, 298 Peres M. 488 Perfect Timothy J. 261, 262, 412 Perkins David N. 533, 539 Perruchet Pierre 147 Perry Elizabeth 261, 262 Petersen Steven E. 39 Peterson Lloyd R. 47, 48, 241, 263, 343, 344 Peterson Margaret J. 47, 241, 263, 343, 344 Peverly Stephen T. 519 Phillips William A. 304 Piaget Jean 33, 34, 108, 130, 430, 442, 571, 572 Pichert James W. 131 Pickett R. M. 208 Pickreil J. E. 413 Pinker Steven 52, 422, 423, 602, 606 Piper Dag 388 Pisoni David B. 234, 238 Pitts W. H. 283 Platon 61 Plunkett Kim 54 Polanyi Michael 140 Policastro Emma 568 Pollard Paul 453, 478, 479 Pollatsek Alexander Waren 315 Poison Peter G. 509, 510
Poltrock Steven E. 184 Polya George 498 Ponomarev J. A. 536 Porter Paige P. 534 Posner Michael I. 106, 116-119, 122, 128, 193, 225, 233, 236, 252, 257, 269-271, 274, 282, 305, 365, 366 Post Timothy A. 490 Postman Leo 295, 387, 398 Pothos Emmanuel M. 142 Prabhakaran Velupillai 354, 478 Pretz Jean E. 513, 518, 530 Pribram Karl H. 30 Proctor Tony 498, 503, 512, 514, 529 Profitt D. 571 Psotka Joseph 407, 408 Putz-Osterloh Wiebke 544, 545 Pylyshyn Zenon W. 60, 66, 74, 77, 81, 88, 91-94, 96, 446
Q Quillian M. Ross 126-128, 151-154, 163, 363, 364, 370 R Rabbitt Patrick M. A. 244, 252, 253 Radvansky Gabriel A. 625 Rafael (Raffaello Santi) 92 Raichle Marcus E. 252 Ramachandran Vilayanur S. 289 Ransopher S. B. 531 Ratcliff Roger 406, 625 Raven 184, 322, 478 Ray Jack L. 479 Rayner Keith 286, 315, 316, 623 Reason James 171 Reber Arthur S. 61, 62, 141, 142, 145, 147, 166 Reder Lynne M. 160,162,366 Redmond Matthew R. 517 Reed Stephen K. 63, 100, 118, 123, 281, 303, 304, 504
729
Rees Ernest J. 172 Regehr Glenn 565 Reicher Gerald M. 316, 317 Reichle Erik D. 453 Reisberg Daniel 411 Reiser Brian J. 72, 73 Reitan Ralph M. 267 Reiter-Palmon Roni 517 Reitman Judith S. 332, 345 Reitman Walter Ralph 433, 488 Rellinger Elizabeth R. 528 Remington Roger 218, 219 Reuter-Lorenz P. A. 271 Reynolds Allan G. 331, 391 Reynolds P. 82, 179, 180, 183, 209-211, 215, 236 Richards Ivor Armstrong 592 Richards Whitman A. 309 Richardson John T. E. 84 Riddoch M. Jane 292 Rieskamp Joerg 578, 580 Rinck Mike 91, 92 Rips Lance J. 99, 109, 110, 127, 153, 274, 452, 453, 463 Ritchey G. H. 85 Roberge J. J. 451, 452 Roberson Debi 600 Roberts Maxwell J. 406, 452, 453 Roberts Tony 313 Robertson Ian, Stephen 169, 171, 474, 486, 501 Robinson-Riegler M. B. 361, 362 Rock Irvin 179, 198, 223, 227 Roediger Henry L. Ill 368, 391-393, 409, 412, 413 Roelofs Ardi 617 Rogers Robert 185, 218, 219, 221, 272 Rogers Timothy B. 334, 336, 368 Rohrbaugh Clarence C. 584-587 Rolls Edmund T. 54 Roos 349 Rosch Eleonora H. 100, 102, 112-116, 119-122, 128 Rosenquist J. N. 271
730
Indeks nazwisk
Roskos-Ewoldsen Beverly B. 75, 76 Ross Brian H. 162, 485, 498 Ross R. N. 349 Rossi 473 Roth Emilie M. 116 Roth Ilona 279 Rouse W. B. 543 Rovet Joanne F. 249 Royer J. M. 520 Rozencwajg Paulette 520, 521 Rubin David C. 370, 402 Rubinstein Joshua 219, 220 Rubinsztejn 437 Rugg Michael D. 339 Ruiz Ana 423 Rule B. G. 122 Rumain Barbara 463 Rumelhart David E. 49, 53, 129, 130, 132, 134, 273, 333, 367, 368, 475 Russell James A. 122 Ruthruff Eric 218, 219 Ryan Colin 236 Rybash John M. 402 Ryle Gilbert 134, 138, 140, 159, 324 S S. F. (pacjent) 393 Saccuzzo Dennis P. 249 Salmon Eric 269 Salomon Gavriel 533 Salter D. 211 Salthause T. A. 212 Santa John Lester 495 Sapir Ayelet 185, 219, 220 Sapir Edward 599-602 Sato Sharon 199, 233 Sawyer R. Keith 518 Schaaf T. W. van der 207, 238 Schacter Daniel Lawrence 140, 141, 320, 321, 324, 404, 409 Schaeken W. 465, 467 Schaffer Marguerite M. 123 Schaie K. Warner 533 Schank Roger C. 129, 130, 132-134, 140 Scheerer Martin 487, 489, 538 Schefner Jeremy M. 278
Schliemann Analucia Dias 423, 571 Schlosberg Harold 192 Schneider 524 Schneider Walter 245, 248, 231-239 Schooler Jonathan W. 411 Schulman H. G. 211, 215 Schultz D. W. 255 Schumacher R. 174 Seifert Collenn M. 540 Sekuler Robert 279, 283-285, 288, 290, 292 Selfridge Oliver G. 49 Sellen A. J. 361 Sells Saul B. 449^151 Selza Otto 426 Sengco J. A. 314 Sergent Justine 312, 314 S$k Helena 107 Shaffer W. O. 234, 238 Shafir Eldar 582 Shallice Tim 218, 230, 269, 271-274, 352 Shanks David R. 141, 147 Shannon Claude E. 23, 34 Shanteau James 584-587 Shapiro F. 306 Shaw J. Clifford 498 Shaw Melvin P. 537 Shaw V. F. 479 Shepard Roger N. 65-70, 75, 406 Shepherd J. W. 313 Sherry David F. 321 Shettleworth S. J. 321 Shiffrin Richard Martin 46, 47, 49, 231-239, 245, 248, 321-323, 327, 328, 406 Shilling Valerie (Wal) M. 244, 252, 253 Shirley Debbie Anne 568 Shoben Edward J. 99, 109, 110, 116, 127, 154, 274 Shrager J. 521 Siegel Ronald K. 280 Siegler R. S. 521 Silveri Maria Caterina 292 Silverman Gerald H. 196 Silverstein Raymond 240 Simon Herbert A. 63, 157, 169, 170, 345, 484, 485,
488, 490, 498, 500-503, 506, 508, 511, 523, 524, 530, 537, 539, 547, 576, 584 Simoneau Michael 469, 470 Simonton Dean Keith 518 Simpson Carol 113 Singer Murray 625 Skalska Blandyna 232 Skelton J. M. 257 Skinner Burrhus Frederick 32, 603 Sloane P. 35, 487, 490 Slovic Paul 550, 557 Slabosz Aleksandra 193, 197, 198, 219, 220, 227, 249, 250 Słowacki Juliusz 602 Smith Andrew S. 255, 257 Smith Donald A. 131 Smith Edward E. 99, 109, 110, 121, 127, 149, 150, 154, 274 Smith Steven M. 63, 384, 410, 535, 538 Smith V. L. 410 Snodgrass J. G. 85, 193, 248 Snyder Charles R. 225, 236 Sohn Myeong-Ho 218, 219, 221 Sokrates 139 Solomon Michael R. 584 Sox Harold C., Jr 582 Spector A. 185 Spellman Barbara A. 261 Spencer R. M. 534 Spencer T. 210 Sperling George 47, 187, 286, 287, 304, 341, 342 Spiro Rand J. 172 Spivey Michael J. 525, 527 Springston F. 345 Squire Larry R. 140, 145, 323, 324, 326, 397 Squire R. 190, 222 St. John Mark F. 141 St. Jones M. F. 147 Standing Lionel 404, 405 Stanley William B. 146 Stanovich Keith E. 563 Stawowy-Winkler Zofia 18 Steedman Mark 465
Indeks nazwisk Stein Barry S. 384, 512, 513 Stein Morris I. 427, 437 Stenberg Robert J. 452, 453 Stenman U. 224 Stern Robert M. 208 Sternberg Robert J. 37, 43, 80, 90, 144, 145, 147, 166, 167, 171, 230, 268, 331, 428, 437, 475, 476, 493, 504, 513, 518, 519, 529-531, 538, 539, 572 Sternberg Saul 43, 258, 274, 347-349 Stevens M. E. 389 Strohhecker Jürgen 546 Stroop John Ridley 241-245, 247, 248, 251-253, 255, 263, 266, 284, 533, 534 Stróżewski Władysław 26 Styles Elizabeth A. 186, 218, 220, 221, 233 Sundstroem G. 81 Süß Heinz-Martin 349, 544-546 Svenson Ola 584, 587, 588 Swanson H. L. 521 Swets John A. 202, 206, 209 Sykes Marilyn 190, 222 Synder C. R. 233, 365, 366 Szmalec A. 354 Szych Łukasz 18 Szymura Błażej 184, 186, 193, 197, 198, 213, 215, 216, 219, 220, 223, 227, 236, 249, 250, 252, 257, 259, 270, 271, 333 y
s Ścigała Elżbieta 69, 370 Śm igasiewicz Kamila 18, 219, 220 T Tanaka James W. 314 Tarnowski Adam 270 Taylor Angela M. 308 Taylor D. W. 530 Taylor M. M. 208 Taylor Shelley E. 25, 248, 275, 383 Tehan Gerald 264, 356 Terelak Jan 270 Thackray R. I. 182
Theeuwes Jan 182, 199, 238, 270, 271 Thomas J. C. 504, 505, 529 Thompson A. H. 104 Thompson D. N. 531 Thomson Donald M. 368, 384, 385, 407 Thomson Neil 353 Tiner L. Ghose 531, 532 Tipper Steven P. 220, 221, 251, 258-260, 366 Titchener 102 Todd Peter M. 51, 52, 576-578 Tolan Georgina Anne 264 Tolman Edward Chance 33 Tomasello Michael 606 Tomaszewski Tadeusz 30, 31 Toms M. 469 Tooby John 423, 459, 460 Touchstone R. M. 182, 201 Townsend D. J. 349 Townsend James T. 196, 306, 347, 349 Trabasso Tom 625, 627 Trackray R. I. 201 Tranel Daniel 269 Travis R. C. 380, 381 Treisman Anne M. 179-181, 189-191, 194-200, 211, 214, 215, 222, 224, 233, 270, 342 Trzebiński Jerzy 102, 107-112,118 Tsal Y. 192 Tucker Philip 544 Tulving Endel 90, 151, 320, 321, 323-325, 334-336, 338, 339, 360, 366-369, 374, 377-379, 384-387, 399, 405-408 Tune G. S. 208, 270 Turkey M. T. 287 Turner M. L. 358 Turner Trerrence F. 131 Turvey Michael T. 342 Tversky Amos 113, 138, 150, 151, 406, 424, 503, 550-555, 557, 561-563, 576, 581-583 Tyler Lorraine K. 620 Tyszka Tadeusz 433, 584
731
Tzelgov Joseph 239, 241, 245, 250, 251, 253 U Ucros C. G. 407 Underwood G. D. M. 565 Underwood Benton J. 266, 387, 388, 398 Underwood Geoffrey 147, 166, 227 V V. P. (pacjent) 393 Valdes Leslie A. 251 Valentine Tim 314 Van der Goten Koen 268, 352 Van der Linden Martial 147, 269 Van Zandt Trisha 347, 349 Vandierendonck André 268, 352, 354 Vela Edward 384 Velazquez Diego 92 Veling Harm 261, 262 Velmans Max 221, 222, 224 Verazquez 92 Verleger Rolf 232 Vieira A. 181, 198 Virzi R. A. 198 Vogel Edward K. 354 Vokey John R. 147 Von Wright J. M. 224 Voss James F. 490 W Wadderburn A. A. I. 188 Wagner H. L. 423 Wagner Richard K. 143, 144, 167 Wakefield J. F. 428 Wall S. 196, 349 Wallach L. 545 Wallas Graham 537, 569 Waltz J. A. 476-478 Wanner Eric 145 Ward D. 469 Ward L. B. 401 Ward Thomas B. 63, 538 Warm Joel S. 208 Warr Peter 544 Warren William H. 627
732
Indeks nazwisk
Warrington Elizabeth K. 308, 414, 415 Washington George 162 Wason Peter C. 445, 456-459, 472, 473 Waters Andrew J. 488 Waters Gloria S. 623 Watkins Michael J. 337, 378, 405 Waugh Nancy C. 321, 328 Wearing A. J. 543 Weaver Bruce 220, 258 Weaver Warren 23, 34 Webster Donna M. 532 Wechsler David 520 Wegner 425 Weisberg Robert W. 534, 537-539 Well Arnold D. 315 Wenke Dorit 544 Wertheimer 102 Wertheimer Max 301 West Richard Fuller 563 Westberiy Richard L. 258,260 Westcott Malcolm R. 564, 565 Wetherick N. E. 105, 450, 452 Wetzler Scott E. 402 Wheeler M. A. 367 Whetstone T. 88 Whimbey Arthur 487, 491 Whitehead Alfred North 231 Whitmarsh G. A. 426 Whitten W. B. 330 Whorf Benjamin Lee 599-602
Wichary Szymon 578-580, 586 Wickelgren Wayne A. 507, 516 Wickens Christopher D. 195, 217 Wiebe D. 537 Wiener Norbert 23, 34 Wierzbicka Anna 604 Wierzchoń Michał 143, 404 Wiesel Tornsten N. 284 Wilde Oskar 373, 416 Wilhelm Oliver 349 Williams 602 Williams J. M. G. 244 Williamson J. 241 Williges Robert C. 207 Willingham D. B. 146 Wilson J. 193 Winzenz David 383 Wiśniewski E. J, 111 Wittgenstein Ludwik 120 Wittmann Werner W. 349, 544, 545, 546 Witzki Alexander H. 268 Wixted John T. 399 Wodniecka Zofia 609-611 Wojciszke Bogdan 549 Woleński Jan (Hertrich Woleński Jan) 34 Wolfe Jeremy M. 180, 181, 198, 199, 249, 271 Wolfson Debra 267 Woll Stanley B. 131 Wollberg Z. 285 Woltz Dan Jeffrey 250, 523 Wood B. 192, 224, 225
Wood David J. 452, 453 Woods 156 Woodward Todd S. 219 Woodworth Robert S. 192, 449, 450 Wright P. 545 Wylie Glenn 185, 220 Wytykowska 139 Y Yachanin 459 Yantis Steven 181, 182, 196, 199, 270 Yaure Robin G. 524 Yerkes R. M. 208 Young Andrew W. 314 Young D. A. 533 Yuille John C. 82, 84, 368, 408 Z Zaback Larry A. 75, 76, 308 Zacks Rose 232, 233, 239 Zajonc Robert B. 233 Zaragoza M. S. 410 Zbrodoff N. Jane 239, 241, 248, 253 Zeitz Colleen M. 169 Zenger Barbara 249 Zhu Y.-X. 267 Zimmer Hubert D. 74 Zola-Morgan Stuart 323, 324 Zucco G. M. 354 Zwaan Rolf A. 625
Ż Żyła Katarzyna 142
Indeks rzeczowy (opracowała Joanna Marek)
A Abstrahowanie 103,106,108, 112, 121, 130, 629 ACT 127, 157, 159-162, 166, 171, 629 Amnezja 414, 415, 629 Analiza komponentowa 43, 44 Asymilacja oportunistyczna 540, 541, 644 Automatyzacja czynności 230-251, 267, 630 - konsekwencje 248-251
B Blokowe modele umysłu 46-49, 53 Błąd - hiperregularyzacji 635 - fałszywego alarmu, FA 45, 201-206 - nadrozciągłości znaczeń 642 - ominięcia, OM 45, 201-206 Bodziec - dystalny 279, 630 - proksymalny 279, 630 - zdegradowany 280, 630 Bufor epizodyczny 350, 351, 354, 630 C Cecha 102, 103, 110, 112, 120, 121, 124, 148-151, 195-197, 305, 306, 435, 631 - charakterystyczna 149, 631 - definicyjna 103, 631 - istotna 103, 107, 631 - priorytetowa 198, 631
- rdzenna 149, 631 - semantyczna 149, 631 Centralny system wykonaw czy 274-276, 350, 631 Chronometria umysłu 40, 42-44, 631
D Decyzja leksykalna 365, 631 Deproceduralizacja 250, 631 Deprywacja sensoryczna 280, 631 Detektor cechy 283-285, 632 Desygnat 592, 593, 631 Drzewko deprywacyjne 595, 632 Dylemat 491, 632 Działanie 23-30 E Egzaptacja 432, 632 Egzemplarz 99, 100, 102, 105-126, 128, 632 Efekt - asymetrii wokół punktu fiksacji 315, 316, 630 - atmosfery 449-450, 630 - autoreferencji 336 - dezinformacji 410, 411, 632 - dystansu numerycznego 87, 632 -eksperta 171, 172, 633 - flankierów 255-257, 266, 633 - hamowania przez przywo ływanie 262 - końca języka 330, 615, 637 - materiału tematycznego 459, 460, 639
- nastawienia (mechanizacji myślenia) 495, 531, 642 - nasycenia 642 - nieuświadomionej podpo wiedzi 223, 643 - obramowania 581-583 - pierwszeństwa 329, 330, 646 - płynnego ruchu pozornego 646 - podobieństwa fonologicznego 346, 352, 646 - poprzedzania percepcyjnego 647 - przechodzenia przez kra wędź 650 - przetargu między szybko ścią a poprawnością 248-249, 651 - przewagi obrazu nad sło wem 84, 85, 651 - przewagi słowa nad litera mi 316, 317, 651 - przyjęcia towarzyskiego 179, 180 - siły przekonań 478, 655 - spadku czujności uwagi 182, 208, 209, 655 - specyficzności kodowania 364-366, 655 - Stroopa 241-245, 247, 251-253, 255, 258, 266, 533, 534, 656 - - modyfikacje 245 - synonimu 190 - świeżości 329, 330, 555, 556, 658 - tłumienia dystrakcji 258, 658 - tłumienia kaskadowego 658
734
Indeks rzeczowy
-
transferu 250, 658 negatywnego 250 - pozytywnego 250 wachlarza 161, 659 zapominania z powodu przy woływania 261, 262, 661 - ziarnistości obrazu 72-74 Elaboracja 337, 383, 384, 387, 632 Ekspert 137, 633 Epistemologia 34 F Filozofia umysłu 34, 35, 633 Filtr uwagi 633 Fonem 594, 607, 614, 619, 620, 633 Funkcje zarządcze (zob. też homunculus) 633 - istota 266, 267 - rodzaje 267-269 G Gaworzenie 607, 633 Generalizacja 106, 165, 171, 605, 633 Geony (geometryczne kom ponenty strukturalne) 293, 294, 633 Głużenie 607, 633 Gramatyka 595, 605, 608, 621 - generatywna 598, 634 - uniwersalna 604, 634 Grupowanie 345, 634 - kategorialne 382, 634 H Hamowanie - behawioralne 262, 263, 634 - dominującej reakcji 240, 241, 253-255, 263, 265, 634 (zob. też efekt Stroopa) - percepcyjne 262, 263, 634 - powrotu 262, 634 - poznawcze 251-266, 267, 634 - - funkcje 231, 251, 252 - - istota 251, 252 - - rodzaje 262-266 - uwagowego odruchu orien tacyjnego 262, 634
Heurystyki 171, 434, 439-442, 484, 497, 498, 547, 550-557, 577, 634 - rozwiązywania problemów 503-512 - metoda analizy środków i celów 507-512, 639 - metoda poruszania się wstecz 507, 640 - - metoda redukcji różnicy 503-506, 640 - wady 561-563 - zalety 561-563 Hipoteza - determinizmu językowego 632, 653 - języka myśli, LOT 89-91 - przełącznika 217, 218 - relatywizmu językowego 599-601, 652 Homunculus (zob. funkcje zarządcze) 53, 230, 266-276, 635 Hydrauliczny model uwagi selektywnej 48
I Imagen 81-83, 635 (zob. też niewerbalny system kodo wania) Implikacja 627, 635 Implikatura konwersacyjna 627, 635 Indukcja nastawienia 530, 531, 635 Inercja - ideacyjna 531, 635 - mentalna 531, 635 Inkubacja 535-537, 635 Instynkt językowy 606, 609, 635 Inteligencja 44, 484 - praktyczna 144 Interferencja - kontrola 252, 263, 637 - między językami 614, 635 - proaktywna 387, 388, 635 - retroaktyw na 3 9 7 -3 9 9 , 407, 411, 635 - strukturalna 215-217, 236, 635 - zasobowa 215-217, 236, 635 Interioryzacja 29, 30, 636
Intuicja 503, 504, 564, 565, 568, 571, 575, 576, 636 Inwersja terminów w prze słankach 451, 636
j Jedność działania i poznania 30, 636 Język 31, 56, 590-611, 636 - a dwujęzyczność 609-611 - a wielojęzyczność 609-611 - a poznanie 599-602 - jako system 590-594 - myśli 89-91, 636 - poziomy 594-598, 648 - przyswajanie 56, 602-611 - - problem natywizmu 602-607 - stadia przyswajania 607609 K Kategoryzacja 101-103, 107, 108, 110,112,113, 121-126 - obiektów 99-105, 107-110 -probabilistyczna 108-112, 121, 126, 132, 636 Kategoryzowanie 392, 636 Klasyczna teoria decyzji (KTD) 572-576 Kognitywistyka 32, 33, 35, 36, 636 Kompetencja językowa 603, 637 Komputerowa metafora umy słu 48, 49, 53, 637 Komputerowe modelowanie procesów umysłowych 34 Komunikaty nie wprost 627, 637 Koncepcja - markerów somatycznych 269 - postaciowa percepcji 301-303, 647 - poziomów przetwarzania 49-51, 648 - prototypów 114-120 - skąpca poznawczego 25, 100, 126, 127, 655 Koneksjonizm 49, 53, 56, 637 Konkluzja - ewaluacja 637
Indeks rzeczowy - generowanie 637 Konstruktywizm 28, 61, 62, 637 Kontekst 27, 52, 454, 455, 459-462, 637 Kontrola 642 - poznawcza 15, 26, 56, 230-276, 637 - - postaci 231 - systemów dynamicznych 637 Konwergencja dwuoczna 290-292, 637 Kryterium 205, 206 - czułości 141, 638 - wyłączności 141, 638 Krzywe pozycyjne 329, 638 L Leksem 616-618, 638 Leksykalizacja 615, 638 Leksykon - mentalny 638 - wewnętrzny 154, 659 Lemma 116, 615, 638 Logogen 81-83, 638 (zob. też reprezentacje werbalne) M Magazyn - informacji sensorycznej 285-287, 321, 638 - - pojemność 286 - - rodzaje 285, 286, 638 - wzrokowy 639 Maksymy konwersacyjne 613, 627, 639 Mapa - cechy 195, 639 - lokacyjna 195, 639 Maskowanie wsteczne 342, 639 Mechanizm - aktywacyjny uwagi 639 - nawarstwiania się cech 639 - orientacyjny uwagi 639 Metafora aparatu fotograficz nego 281, 630 Metapoznanie 639 Metawiedza 139, 639 Metoda - addytywna 43 - odejmowania 42, 43, 643
- odtwarzania - swobodnego 329, 640 - ukierunkowanego 367, 408, 640 - - w kolejności 640 - przypominania 141, 640 Metody badawcze 37-45 - badania kliniczne 38, 39, 636 - eksperyment laboratoryjny 37-39, 42, 44, 45 - obrazowanie pracy mózgu 39, 40, 643 - funkcjonalny rezonans magnetyczny, fMRI 39 - - skanowanie techniką emi sji pozytonów, PET 39 - obserwacja 37, 39, 643 - symulacja komputerowa 35, 36, 38, 39, 657 Model -filtra uwagi 187-194, 210-212, 214, 217, 218 - kohorty 620, 636 - mentalny (umysłowy) 60, 63, 95-97, 640 - sytuacyjny 95, 640 Modele - deskryptywne 424, 425, 640 - koneksjonistyczne (zob. sie ci neuropodobne) - mentalne 95, 96 (zob. teo ria modeli mentalnych) - normatywne 424, 425, 640 - preskryptywne 424, 425, 640 Moduł 641 Monitorowanie 641 MOP 133, 641 Morfem 285 MOUSELAB 578-580 Mowa 590, 612-628, 641 - kodowanie - - fonologiczne 616-618 - semantyczno-syntaktyczne 615, 616 - planowanie 612-614 - telegraficzna 608, 641 - ukierunkowana na dziecko 606, 607, 641 Mózg 24, 25, 35, 39, 49, 53, 641
735
Myślenie 14, 15, 31, 53, 56, 89, 95, 178, 420-482, 641 - a inne złożone procesy po znawcze 442, 443 - istota 421-425 - rodzaje 425^-30 - autystyczne 425, 426, 428, 436, 442, 641 - - indukcyjne 130 - krytyczne 428, 429, 641 - - logiczne 430 - - odtwórcze 427, 428, 641 - pojęciowe 430 - - postformalne (dialektycz ne) 429, 430, 641 --p r o d u k ty w n e 426-428, 641 - - realistyczne 425-427, 641 - - reproduktywne 426-428, 442, 641 - sensoryczyno-motoryczne 429, 430 - - twórcze 427-429, 641 - - typu R 432, 642 - - typu S 432, 642 - wyobrażeniowe 429, 430 - modele 423-425 - struktura 436-444 - sztywność 529, 530, 657 - teorie 430-435 N Nadzór (zob. kontrola) Naiwna koncepcja percepcji 280, 281, 642 Nastawienie percepcyjne 296, 297, 642 Neuronauka poznawcza 25, 35, 643 Niewerbalny system kodowa nia 80-86
O Obraz umysłowy 64, 65, 643 Obronność percepcyjna 643 Odpamiętywanie 15, 17, 18, 643 Odporność - na dystrakcję 263, 643 - na interferencję proaktywną 263, 643 Odruch orientacyjny 29, 643
736
Indeks rzeczowy
Odświeżanie 643 Odtworzenie 643 Ognisko uwagi 644 Okres sensytywny 606, 654 Operatoiy 644 P Pamięć 14, 15, 26, 30, 31, 39, 46-49, 51, 56, 61, 126, 131, 159-163, 245-247, 261, 273, 304, 320-371, 644 - czynności 373^ 16 - od p am iętyw an ie 137, 163, 261, 262, 266, 323, 335, 3 7 3 ^ 1 6 - - przechowywanie 373-416, 650 - - zapamiętywanie 24, 26, 50, 51, 62, 85, 89, 137, 163, 323, 335, 336, 373-416 - fałszyw ych w sp om n ień 412, 413, 644 - funkcje 320-340 - kontekst 407, 408 - magazyn 322, 323, 338, 638 - modele - blokowe (magazynowe) 326-333 - - procesualne 333-340 - modulowość struktury 641 - naocznych świadków 409-412 - rodzaje 320-340 - autobiograficzna 325, 369-371, 409, 644 - - deklaratywna 138, 140, 160, 324, 644 - - długotrwała, LTM 46, 47, 137, 163, 272, 321, 323, 327-329, 331, 332, 358-361, 378, 397, 638 - - echoiczna 340-343, 644 - - epizodyczna 152, 167, 246, 324, 366-369, 402, 409, 412, 413, 644 - - ikoniczna 47, 322, 340-343, 644 - - jawna 17,18, 140, 141, 644 - krótkotrwała, STM 32,
43, 46, 47, 163, 274, 321, 327-329, 331, 332, 340, 341, 343-349, 361, 397, 638 - - niedeklaratywna 140, 324, 415, 644 - - niejawna 15, 17, 140, 141, 388, 404, 644 - - operacyjna 160, 644 - proceduralna 138, 158, 160, 167, 415 - - prospektywna, PM 15, 360-362, 644 - - przemijająca 320, 340-362, 644 - - robocza, WM 15, 61, 158, 169, 170, 274, 349-360, 637, 644 --s e m a n ty c z n a 37, 151, 152, 163, 167, 246, 324, 366, 409, 644 - - sensoryczna 340-343 - - trwała 137, 138, 143, 320, 323, 340, 363-366, 644 - systemy 321 - zawodność 409-415 Paradoks frekwencji słów 406, 644 Paradygmat 31, 644 - cieniowania 255, 274 - przełączania się między za daniami 185, 186 - sygnał stopu 240, 241, 253, 254 Paralaksa ruchowa 290, 645 Percepcja (spostrzeganie) 14, 52, 56, 61, 67, 68, 71, 94, 131, 278-318, 645 - błędy 297, 298 - właściwości 278-282 - nastawienie 296, 297 - teorie (zob. teorie percep cji) Pętla fonologiczna 350, 352, 645 Plan 646 Podejmowanie decyzji 14, 30, 31, 52, 56, 89, 230, 266, 441^144, 449-588 - klasyczna teoria decyzji 571-576 - proces 584-588
-semantycznych 109, 110— -112, 121, 124, 127 - strategie 576-580 - teoria perspektywy 581-584 Podobieństwo - rodzinne 451, 646 - syntaktyczne 646 Pojęcie 62, 63, 99-135, 646 (zob. też reprezentacje po jęciowe) - abstrakcyjne 122 - dysjunktywne 107, 646 - jawne 106, 647 -konkretne 121, 122, 646 - matrycowe (sztuczne) 102, 103, 107, 108, 119, 646 -naturalne 102, 103, 107, 112, 118, 119, 646 - niejawne 106 - polimorficzne 120, 647 - probabilistyczne 108, 109, 647 - przestrzeń semantyczna 651 - rdzeń 646 - wymiar - - pionowy 112-114, 660 - - poziomy 112-114, 660 Połączenia 647 Poprzedzanie (prymowanie) 225-228, 647 - afektywne 226, 647 -negatywne 225, 258-261, 647 - percepcyjne 316, 647 - peryferyczne 226, 227, 647 - podprogowe (subliminalne) 222, 225, 227, 647 - pozytywne 225, 647 - repetytywne 225 - sekwencyjne 226 - semantyczne 225, 365, 366, 647 Powtarzanie - podtrzymujące 337, 338, 647 - pogłębiające 337, 338, 647 Poznanie 22-30 - intuicyjne 563 Prawo - kojarzenia 439, 636 - małych liczb 648
Indeks rzeczowy Prioreceptor 310, 648 Problem 484-547, 648 - oswajanie 644 - przestrzeń 499, 651 - rozwiązywanie 30, 384-546 - typy 486-498, 648, 649 - - ze względu na cechy i stru kturę 487-491 - - ze względu na wymagania poznawcze 491-498 - upraszczanie 539, 659 Procedura 649 - identyfikacyjna 70, 649 - odtwarzania częściowego 342, 649 Proceduralizacja 164-166, 649 Proces - asocjacyjny 84, 649 - kategoryzacji 650 - referencjalny 83, 650 - reprezentacyjny 83, 650 Procesy -automatyczne 131-251 - kontrolowane 230, 233-239 - - jawne 236, 650 - - zawoalowane 236, 650 - metapoznawcze 650 Prototyp 112-128, 650 Prozopagnozja 312, 650 Pryma 650 Przeciążenie informacyjne 25 Przejęzyczenia 614, 650 Przetwarzanie informacji 14, 23-32, 46, 49-56, 60-64, 69, 96, 97, 143, 178, 179, 210, 245, 255, 260, 266, 322, 323, 326-328, 333340, 349-360, 374-377, 630 - pasywne 645 - poziomy 26, 27 (zob. Kon cepcja poziomów przetwa rzania informacji)
Q Qualia 35 R Rachunek predykatów 89-91, 651 Racjonalność ekologiczna 423, 651 Realizm 61, 652 - a konstruktywizm 61, 62
Recepcja sensoryczna (sencepcja) 278-282, 652 Reminiscencja 400-403 Reprezentacje 29 - numeryczne 86, 87 - obrazowe 64-76, 86, 89, 91, 92, 96 - pierwotne 307, 645, 646 - - 2D 307, 645 - - pełne 646 - - surowe 646 - pojęciowe (zob. też pojęcia) - - emocji 122 - - istota 99, 100, 106 - - funkcje 99, 100 - - funkcjonowanie 103-126 - - koncepcje 103-126 --n a b yw an ie 104-108, 112, 124 - - struktura 103-126 - - właściwości 100-102 - poznawcze (umysłowe) 14, 27, 28, 60-97, 99-135, 652 (zob. też struktura pozna wcza) - - a procesy poznawcze 60, 61 - - rodzaje 60, 62, 63 - werbalne 76-88, 94, 96, 101 - weryfikacja sylogizmów i treści zdań 76-80 Reprezentacjonizm 28, 29, 652 Rotacja mentalna 67-71, 75, 91, 96 Rozbiór zdania 621-625, 652 Rozpoznawanie - metoda 652 - wzorców 281, 282, 653 Rozumienie przekazów języ kowych 619-627 - budowa modelu sytuacyjne go i wnioskowanie 625-627 - rozbiór zdania 621-625 - złamanie kodu 619 Rozumowanie 14, 15, 52, 95, 420-482, 653 - dedukcyjne 139, 444-455, 653 - - sylogistyczne 447-455 - teorie (zob. teorie rozu mowania dedukcyjnego)
737
- indukcyjne 444-446, 456, 472-478, 653 - - przez analogię 474-478 - testowanie hipotez 472-474 - nieformalne 479^181 - probabilistyczne 478, 479 - warunkowe 455-462, 653 - - błędy 457, 458 - - istota 455, 456 Rozwiązywanie problemów 14, 15, 31, 56, 63, 171, 172, 422, 423, 430, 437, 442^ 44, 484-547, 653 - czynniki wspomagające 533-541 - - inkubacja 535-537 - - transfer pozytywny 533, 534 - - transfer przez analogię 534, 535 - - wgląd 537-541 - fazy 512-529 - - alokacji zasobów 524-527 - definiowania problemu 514-519 - - doboru strategii 519-523 - identyfikacji problemu 513, 514 - monitorowania problemu 527, 528 - oceny poprawności rozwią zania 528, 529 - zdobywania informacji 523, 524 - przeszkody 529-533 - fiksacja funkcjonalna 531-533 - - nastawienie 530, 531 - sztywność myślenia 529, 530, 657 - teorie 498-503 - złożonych 541-546 Rozwój poznawczy dzieci wg Piageta 33, 34 Różnicowanie 653 Rywalizacja egzemplarzy 653 S Sądy 14, 15, 26, 60, 62, 66, 81, 89, 90, 93-96, 135, 137, 148, 152, 159, 453 - wydawanie 449-572
738
Indeks rzeczowy
- - intuicyjne 563-572, 654 - - tendencyjność 550-557 Schemat - narracyjny 626, 654 - poznawczy 26, 62, 63, 99-135, 654 - rozwiązywania problemów 654 Segmentacja 619, 620, 654 Sieciowe modele umysłu 53-56, 655 Sieć - neuropodobna (neurono wa) 53-56, 655 - semantyczna 126-133, 655 Skaning umysłowy (mental ny) 67, 72-76, 91, 94 „Skryba” wewnętrzny 350, 353, 659 Słownik umysłowy 617, 655 Solipsyzm 29 Spostrzeganie (zob. percep cja) 24, 26, 30, 31, 62, 64, 66-68, 178, 655 - a praktyka 312-317 - a rozpoznawanie wzorców 281-283 - a wpływ kontekstu 298, 299 - głębi 288-292, 645 - gotowość 645 - jako proces oddolny 283-295 - jako proces odgórny 295-299 - koncepcje 280, 281 - stałość 295, 296, 645, 655 Spostrzeżenie 288, 655 Struktury poznawcze 26, 656 (zob. też. reprezentacja poznawcza) Sylogizm 76, 77, 80, 96, 656 - kategorialny 447, 448, 656 - liniowy 447, 448, 656 System - kontroli czynności automa tycznych 657 - kontroli czynności nieauto matycznych, SAS (domi nujący system zadaniowy) 272-275, 657 - podw ójnego kodow ania 80-82, 657
Systemy przechowywania in formacji 657 - długotrwałego, LTS 47 - krótkotrwałego, STS 47 Sztuczna inteligencja 35, 53, 55,657 Świadomość 15, 35, 178-228, 657 - metajęzykowa 610, 639 T Techniki mnemoniczne 390395 - kategoryzowanie 392 - metoda - - mapy poznawczej 394,395 - - miejsc 393, 394, 639 - - obrazów interaktywnych 391, 392, 639 - - słów-wieszaków 392, 393, 640 Tendencyjność 550, 658 Teoria - detekcji sygnałów 202-206, 631 - odwzorowania struktury 474, 475, 643 - pierwotnych reprezentacji 91-95 - podwójnego kodowania 76, 80-82 - poziomów przetwarzania 333-336 - reprezentacji obrazowych Kosslyna 65 - rywalizacji egzemplarzy Logana (teoria przypad ków) 239-248, 254 Teorie percepcji - asocjacjonistyczna 2 9 9 -301, 630 - cech 305, 306 - ekologiczna 309-312 - obliczeniowa 307-309 - postaciowa 301-303 - wzorców 303-305 Teorie reprezentacji pojęcio wych - egzemplarzy 123-126 - klasyczne 103-108,126,127 -probabilistyczne 108-112, 126, 128, 134
-prototypów 112-124, 126, 128 Teorie rozumowania deduk cyjnego 462-472 - abstrakcyjnych reguł 463-465 - - modeli mentalnych 95, 96, 465-471 Teorie struktur sieciowych - planów, scen i tematów 133-134 - ram 132, 133, 140, 159 - schematów 129-132 - sieci semantycznej 126-129 Teorie uwagi - podzielności 209-217 - przedłużonej koncentracji 200-209 - przerzutności 185, 217-221 - przeszukiwania pola percepcyjnego 195-200 - selekcji źródła informacji 187-195 Test zegara Mackworth 182, 183, 200, 201 Tłumienie artykulacyjne 353, 658 TOP 134, 658 Transfer - przez analogię 658 - wiedzy 478, 658 Transformacja - reguły 658 Transparencja 658 Trening - jednorodny 658 - niejednorodny 658 Trójkąt semantyczny 658 Twórczość 658 - językowa 592, 658 U Uczenie się 31, 162,163, 377-396 - mimowolne 17, 141, 145-147, 166, 640 - sekwencji 658 - sztucznych gramatyk 659 Umysł 22-30, 32, 61, 62, 95, 100, 122, 125, 178, 484, 485, 630, 659 - architektura 45-56, 630
Indeks rzeczow y
- jako system modułowy 51-53 Uwaga 14, 25, 31, 32, 37, 46, 48, 56, 61, 100, 174, 178228, 234, 235, 273, 631, 659 - aspekty 178-186 - istota 178-186 - koncepcja Posnera 269-271, 274 - mechanizmy funkcjonowa nia 179 - moduł 659 - nadzorczy system, SAS 272-274, 642 -podzielność 183, 184, 274, 646 - przełącznik 659 - przekierowanie 650 - przerzutność 184-186, 274, 651 - - koszty 637, 638 - selektywność 179-183, 186, 249 - zasoby 213-217, 661 W
Węzły 659 Wgląd 537-541, 659 Widzenie stereooptyczne 292, 659, 660 Wiedza 26, 60, 61, 128, 137-174, 322, 325, 454, 455, 459-462, 485, 660 - poczucie, FOK 646 - rodzaje 138-148 - - autobiograficzna 138 - deklaratywna (wiedza „że”) 134, 138-140, 148, 157, 159, 160, 164, 166, 171, 324, 660
--ek sp erck a 168-174, 644, 660 - - epizodyczna 138,396,397 - jawna 140-148 - - niejawna 140-148, 166-168, 660 - - ogólna 138 - proceduralna (wiedza „jak”) 134, 138-140, 148, 157-160, 164-166, 171, 324, 660 - semantyczna 148, 151— -157, 162-164, 323, 396, 397, 660 - - ukryta (milcząca) 660 -nabywanie 138, 145, 147, 163-168 - organizacja 148-162 - układ stanów 659 Widzenie stereooptyczne 291, 292 Wnioskowanie 52, 139, 140, 143, 433, 434 Wrażenia 279-280, 660 Wskazówki - okulomotoryczne 660 - wizualne 289, 660 Wyobrażenie 14, 64-67, 69, 72, 662 Wyobraźnia 64-69, 71, 91, 92, 94, 661 Wzorzec 303-305, 660
Z Zachowanie eksploracyjne 29 Zadanie - selekcyjne 457, 458 Zapamiętywanie 15, 17, 661 Zapominanie 396, 397 Zasada - dobrej figury 302, 632
739
- kooperacji 637 - koniecznej dla selekcji świa domości 192, 661 - niepowtarzalności produk cji 159, 643 - postaci 647 - późnego domknięcia 648 - prymatu całości nad częścią 650 - semantyczna selekcji 191, 654 - sensoryczna 187, 188, 654 - specyficzności produkcji 157, 158, 655 - wyodrębniania figury z tła 660 Zestaw zadaniowy 661 - rekonfiguracja 661 Zjawisko - asymetrii wokół punktu fiksacji 315 - maskowania wstecznego 342 - podwójnej dysocjacji 332, 646 - przechodzenia przez kra wędź 307 Złudzenie - Amesa 311 - hazardzisty 551, 552, 661 - Kanizsy 289, 290 - koniunkcji 552, 661 - osobistego doświadczenia 556, 661 - wglądu w stecznego 138, 139, 661 Znaczenie 661 - denotacyjne 662 - konotacyjne 662 Związek skojarzeniowy 154, 662