Magdalena Sobieska Konspekt seminariów z przedmiotu: Metodologia badań naukowych, rok akademicki 2013/2014 ! ! Seminarium 1 Podstawowe pojęcia Metodol...
28 downloads
32 Views
707KB Size
!
Magdalena Sobieska Konspekt seminariów z przedmiotu: Metodologia badań naukowych, rok akademicki 2013/2014
!
Seminarium 1 Podstawowe pojęcia Metodologia nauk w ogólności Struktura pracy, jak się zabrać do pisania Seminarium 2 Metodologia pomiarów, błędy pomiarów Rodzaje zmiennych, zmienne interwałowe, porządkowe, nominalne Tworzenie bazy danych. Przykładowa analiza danych Seminarium 3 Prezentacja wyników – strona graficzna pracy Dyskusja Język, strona formalna. Błędy przy pisaniu pracy Literatura Dotycząca metodologii nauk Dotycząca ściśle metodologii pisania pracy magisterskiej Dotycząca posługiwania się metodami statystycznymi. Wybór w załączeniu… Ważniejsze pozycje: Wacław Pytkowski: Organizacja badań i ocena prac naukowych. PWN, Warszawa 1981. Jerzy Apanowicz: Metodologia ogólna. Wydawnictwo Diecezji PeIplińskiej „BERNARDINUM”, Gdynia 2002 Adam Grobler: Metodologa nauk. Wyd. Aureus i Wyd. Znak, Kraków 2008. Andrzej Stanisz: Przystępny kurs statystyki z zastosowaniem Statistica PL na przykładach z medycyny. StatSoft, Kraków 2006.
!
Ogólne wprowadzenie do metodologii badań naukowych Pojecie metodologii nauk należy rozumieć na dwa sposoby. W znaczeniu pragmatycznym jest to nauka o metodach działalności naukowej i stosowanych procedurach badawczych. W znaczeniu apragmatycznym metodologia jest nauką o elementach i strukturze systemów nauk, to jest o wytworach nauki w postaci, tez, pojęć, twierdzeń, teorii i praw naukowych. W poznaniu naukowym można posługiwać się elementami i zasadami metodologii ogólnej, jak też zaleceniami metodologii szczegółowej, odmiennej dla poszczególnych rodzajów nauk.. Metodologia ogólna Metodologia ogólna bada czynności i rezultaty poznawcze funkcjonujące (występujące) w nauce. Jej zasady i elementy obowiązują we wszystkich dziedzinach i dyscyplinach naukowych. Metodologia ogólna zajmuje się sposobami uzasadniania twierdzeń i metodami konstrukcji systemów naukowych, wypracowuje ogólne pojęcia metodologiczne, do których można zaliczyć na przykład wnioskowanie i uogólnianie, dedukcję i indukcję, definicje i klasyfikację. Ujmuje w szerokim zakresie wiedzę !1
(naukę), mówiąc o jej strukturze logicznej, o całości wiedzy i rodzajach wyjaśnień naukowych, a także o metodach stosowanych w badaniach naukowych, o procedurze badawczej od poglądów, tez, hipotez i stwierdzeń, aż do teorii i praw naukowych. Zajmuje się również metodami weryfikowania wyników (wniosków) i w ogóle ustaleń badawczych. Metodologia szczegółowa Metodologia szczegółowa zajmuje się metodami postępowania badawczego i ich rezultatami w obrębie dziedzin lub dyscyplin naukowych. Odnosi się do przedmiotu i metod naukowo-badawczych charakterystycznych dla konkretnej dyscypliny, a nawet specjalności naukowej. Bada zarówno metodologiczną odrębność określonej dyscypliny naukowej lub jej działu, jak i przeprowadza analizę odpowiednich dla tej dyscypliny czynności badawczych. Ustala także zasady i normy, którym te metody muszą odpowiadać. Dąży do kodyfikacji norm, realizujących zamierzone cele badawcze. Wypracowuje pojęcia szczegółowe, do których można na przykład zaliczyć: pojęcie obserwacji, eksperymentu, pomiaru, weryfikacji hipotez, ustalenia zmiennych i ich wskaźników oraz innych elementów procedury badawczej w danej dyscyplinie naukowej. Inny podział metodologii nauk przywołuje w każdej z dotąd wspomnianych dziedzin, tj metodologii ogólnej i szczegółowej, podział na metodologię opisową i metodologię normatywną. Metodologia opisowa zmierza do opisu czynności poznawczych i ich wytworów, podczas gdy metodologia normatywna opracowuje i zaleca normy poprawnego postępowania naukowego i określa stopień rozwoju danej nauki.
!
Istota i pojecie wiedzy (nauki) Działalność ludzi mająca na celu poznanie rzeczywistości, wyrastająca z potrzeb jej opanowania i przekształcania, obejmująca proces badania i jego wyniki oraz nauczanie o tych wynikach, stanowi istotę i pojęcie nauki [Encyklopedia Powszechna PWN]. Rozwijając, poszerzając i uściślając powyższe stwierdzenie należy przyjąć, że nauka to ogół zgromadzonej, uporządkowanej i należycie uzasadnionej przez pokolenia wiedzy [Słownik Języka Polskiego]. Jest ona rozwijana i doskonalona poprzez ciągłe badania, których wyniki ujmuje się w zorganizowany system pojęć, a zachodzące procesy sprzyjają wypracowaniu sądów o rzeczywistości, sądów dowiedzionych i sprawdzonych, sądów prawdziwych. [APANOWICZ J. Metodologia ogólna. Gdynia 2002]. Dlaczego w ogóle… „…im bardziej człowiek poznaje rzeczywistość i świat, tym lepiej zna siebie jako istotę jedyną w swoim rodzaju, a zarazem coraz bardziej naglące staje się dla niego pytanie o sens rzeczy i jego własnego istnienia.” JPII, Fides et ratio Wszystko co jawi się jako przedmiot naszego poznania, staje się tym samym częścią naszego życia. Wezwanie «poznaj samego siebie», wyryte na architrawie świątyni w Delfach, stanowi świadectwo fundamentalnej prawdy, którą winien uznawać za najwyższą zasadę każdy człowiek, określając się pośród całego stworzenia właśnie jako «człowiek», czyli ten, kto «zna samego siebie». (Ibidem) !2
„…pragnienie prawdy stanowi nieodłączny element ludzkiej natury. Wrodzoną cechą umysłu ludzkiego jest skłonność do zastanawiania się nad przyczyną zjawisk, chociaż odpowiedzi, jakich sobie stopniowo udzielał, są osadzone w kontekście wskazującym wyraźnie na wzajemne oddziaływanie różnych kultur, w których człowiek żyje.” (Ibidem) Na początek kilka podstawowych pojęć… Podstawowych, czyli takich, które wyjaśnią rozumienie pewnych haseł, dadzą jasność, o czym mowa. Podstawowych, czyli takich, bez których łatwo o zawalenie się całej struktury. Najpierw samo „pojęcie” To forma myślenia abstrakcyjnego, za pomocą którego człowiek poznaje ogólne, istotne cechy rzeczy i zjawisk. Pojęcie powstaje na bazie wyobrażenia, czyli tworzonych w świadomości obrazów przedmiotów i sytuacji, które w danej chwili nie oddziałują na umysł. Wyobrażenia nie mają charakteru ogólnego i nie mogą być zobowiązująco przekazywane innym. Wyobrażenie pobudza do następnego etapu: zbliżenia do rzeczywistości, jaką jest tworzenie pojęć. G. Meyer: „Zdani jesteśmy nie tylko na nasze spostrzeżenia i odczucia, lecz możemy również uogólniać otrzymane informacje, a więc tworzyć pojęcia… Pojęcia są cegiełkami poznania. Słowo -pojęcie - odrywa się coraz bardziej od konkretnego przedmiotu lub zjawiska i wywołuje te same powiązania w centralnym systemie nerwowym, jakie przedtem wywoływały osoby lub rzeczy. ” Kłopoty z pojęciami Kontrowersje powstające wokół pojęć najczęściej nie dotyczą ich nazwy, ale treści. Niektóre nazwy pozostały, choć zawarta w nich treść uległa już weryfikacji… Jednak najgorszym zjawiskiem jest wieloznaczność pojęć – godząca w naukową precyzję. Miednica, deska, pióro, komórka Wyobrażenia powstają samoistnie – są jakby odruchową reakcją umysłu, pojęcia zaś tworzymy sami – wykonując pewną pracę umysłową. Wcale to jednak nie dowodzi, że pojęcia są zawsze prawdziwe… Dzięki pojęciom można przekazywać wiedzę i posługiwać się nią w wymianie. Prawo tworzenia pojęć Przechodzić od rzeczy konkretnych do abstrakcyjnych, od szczegółu do ogółu, od faktów do zasad. Pojęcie może być prawdziwe lub fałszywe Pojęcie jest prawdziwe, jeśli działanie realizujące jego znaczenie potwierdza to znaczenie. Pojęcie fałszywe tego warunku nie spełnia. Symbol: Wyobraża jakąś czynność lub przedmiot. Jest swego rodzaju skrótem. Operowanie symbolami umożliwia myślenie ścisłe i szybkie – ale trzeba mieć pewność, że znaczenie symbolu jest dla wszystkich czytelne! Symbolami są: Litery i cyfry. Znaki drogowe. Piktogramy. Instrukcje dotyczące prania. Znaczki na mapie. Skróty literowe, na przykład np., rzs, BMI Niektóre wymagają legendy… Myślenie !3
Skomplikowany proces umysłowy, wytwór zorganizowanej pracy umysłu. Proces, w którym to, co minione, świadomie zestawiane jest z chwilą obecną – a zatem zakłada refleksję nad przeszłością… Jest treningiem wyobraźni, która obejmuje przyczyny i skutki. Myślenie pojawia się…gdy nie tylko instynkt i nawyk kierują postępowaniem… Proszę sobie przypomnieć początek studiów, a także moment nabycia praw zawodowych. Nie tylko instynkt i nawyk… Myślący pracownik na każdym stanowisku jest skarbem… I jeszcze raz JPII: Zdolność do abstrakcyjnej refleksji właściwa dla umysłu ludzkiego pozwala, aby nadał on — poprzez aktywność filozoficzną — ścisłą formę swojemu myśleniu i w ten sposób wypracował wiedzę systematyczną, odznaczającą się logiczną spójnością i harmonią treści. (Fides et ratio) Nie każda wiedza jest nauką… Wiedza potoczna – niezbędna do życia, oparta na doświadczeniu, chociaż niekoniecznie udowodniona. Jest konserwatywna, zmienia się powoli. Wiedza artystyczno-literacka, estetyczna, o elitarnym charakterze. Wiedza spekulatywna – próbująca opisać całościowy obraz świata, filozoficzna. Wiedza irracjonalna – nie oparta na rozumowaniu. Wiedza potoczna: Pod wpływem gotowania jarzyny miękną. Srebro czernieje z czasem. Od przeciągów można się zaziębić… Wiedza artystyczna Wiedza spekulatywna Świat wywodzi się z chaosu i do niego zmierza. Wiedza irracjonalna: Czarne koty, szklane kule. Czerwone tasiemki od uroku. Przydeptywanie upuszczonego indeksu… Wiedza naukowa Oparta na zasadzie racjonalności: stopień przekonania, z jakim głosimy dane twierdzenie nie może być większy od stopnia jego uzasadnienia. Stopień przekonania, z jakim głosimy dane twierdzenie powinien odpowiadać stopniowi jego uzasadnienia. Ostatecznym celem poznania naukowego jest osiąganie prawdy naukowej o wysokim stopniu ogólności, o dużej ścisłości, o wysokiej zawartości informacyjnej, o wysokiej pewności epistemologicznej, o wysokiej prawdzie logicznej Nauka: system czynności badawczych służących do obiektywnego poznania rzeczywistości i realizacji pewnych celów poznawczych. Podstawowym celem nauki jest dostarczenie dającej się weryfikować wiedzy. W badaniu naukowym można wyróżnić trzy cechy: wyjaśnianie, przewidywanie, rozumienie. Nauki formalne (NF): To według tradycji tylko matematyka i logika. I nauki empiryczne (NE) – wszystkie pozostałe. Są to jedyne nauki nie oparte na doświadczeniu, a jedynie na wyprowadzaniu twierdzeń z aksjomatów, zdań kolejnych z już udowodnionych. Są podstawą naukowego myślenia w ogóle… różnice: pod względem przedmiotu NF -obiekty matematyczne, nazwy, zdania, NE -świat rzeczywisty, materialny, relacje itd. !4
Pod względem stosowanych metod: NF- opierają się na rozumowaniu i intuicji; metoda uzasadniania - jedynie dedukcyjna NE -opierają się na doświadczeniu we współdziałaniu z rozumem; metoda indukcyjna (także hipotetyczno-dedukcyjna i idealizacyjna) Podstawowe znaczenie mają: NF- Twierdzenia - dowodzone na drodze dedukcyjnej; gdy udowodnione-są prawdziwe w sensie definicji kohercyjnej (nie ma mowy o przybliżonej prawdziwości); dotyczą własności obiektów matematycznych i logicznych. NE - Prawa - uzasadniane na drodze doświadczalnej; dotyczą relacji między zjawiskami rzeczywistego świata; prawdziwe w sensie klasycznej definicji, przy czym jest to prawdziwość przybliżona. Wszystkie nauki teoretyczne (fizyka, ogólna biologia, chemia, socjologia, ekonomia polityczna itp.- formułują prawa i pomocnicze sądy innych typów, a faktami (traktowanymi jako ilustracje, które można zastąpić innymi) posługują się do uzasadnienia tych praw n. nomologiczne; Nauki opisowe (botanika, zoologia, mineralogia itd.) - nie formułują praw przyczynowych, posługują się często teoriami tworzonymi przez n. teoretyczne; odkrywają prawa synchroniczne, koegzystencjalne; Nauki badające fakty: n. badające rozmieszczenie przedmiotów w przestrzeni – topograficzne (geografia, duża część astronomii - ustalają fakty statyczne, które połączone, stanowią daną naukę; czasem formułują prawa) n. badające rozmieszczenie zdarzeń w czasie - historyczne (ustalają fakty kinetyczne rejestrują zdarzenia i procesy, opisują ich przebieg, badają przyczyny, skutki, itd.; formułują generalizacje historyczne i prawa). Konieczność zaprowadzenia porządku Metoda naukowa ma dla nauki większe znaczenie niż jakiekolwiek, choćby najdonioślejsze odkrycie – metoda bowiem uczy posuwać się dalej, niż osiągnęłoby samo odkrycie. Wraz z metodami pojawia się potrzeba zajęcia się metodami stosowania tych metod: czyli metodologia. Metoda: to sposób myślenia, wyrażający się w naukowym podejściu do rozwiązywania problemów. Organizuje i porządkuje działalność poznawczą, dotyczącą zbierania materiałów, ich opracowywania, nie zakładając jednak niczego o wyniku rozwiązań. Metodyka jest zbiorem wytycznych wzoru postępowania, swoistych dla danej gałęzi w nauce. Pozwala na nabycie umiejętności, które metody, w jakich celach badawczych i w jakich warunkach należy stosować, oraz opiera się na analitycznym opisie poszczególnych metod, określeniu zasięgu i warunków ich stosowalności, ocenie stopnia ich precyzji w ujmowaniu zjawisk, kwalifikacji ich użyteczności praktycznej. Jest to warsztat danej nauki. Przykład? Metodyka nauczania ruchu. Metodyka gier zespołowych, fizykoterapii, kinezyterapii, hydroterapii itd.. Metodologia jest nauką o metodach naukowego badania. Jej celem są naukowe rozważania, badanie, wyjaśnianie i opracowywanie zasad i reguł prawidłowego !5
stosowania metod naukowych. Opiera się na logice: logika jest spójnością myśli, metoda zgodnością w stosunku do poznawanego. Treść metodologii Istota metod Ich miejsce, rola i znaczenie w procesie badawczym Systematyka metod Wartościowanie metod (wyższość lub równoległość, względność, nieodzowność) Podstawy teoretyczne modyfikacji i adaptacji metod Ich wzajemne powiązania Opracowywanie prawidłowości (reguł) metodologicznych Przez metodologię badacz uzyskuje dyscyplinę myślenia Przez metodykę – adekwatność i ścisłość działania I teraz nieco logiki…Przypomnienie wiedzy już posiadanej, mam nadzieję…I może nieco odświeżenie… Zdanie to całość, zbudowana ze słów. Twierdzenie to zdanie oznajmujące, wypowiedziane zdecydowanie, bez przytaczania dowodów. Klasyfikacja zdań (twierdzeń) naukowych Analityczne – ich prawdziwość bądź fałszywość można wykazać na podstawie samych faktów językowych, bez uciekania się do doświadczenia. Syntetyczne – prawdziwość ustala się przez odwołanie się do doświadczenia, do rzeczywistości wobec tego zdania zewnętrznej Gdy do uznania jakiegoś zdania skłania nas uznawanie jednego lub więcej innych zdań, to mówimy, że wywnioskowaliśmy to zdanie z tych innych zdań. Te zdania to przesłanki wnioskowania, a zdanie uznane na ich podstawie to wniosek. Zdania analityczne: Tautologie. Tezy języka Jeśli zdanie analityczne jest prawdziwe na mocy samych praw logiki, to zwane jest tautologią (prawdą logiczną). Jeśli natomiast ustalenie jego prawdziwości wymaga odwołania się także do definicji, to jest tezą języka. Tautologia (wywodzi się od greckich słów ταυτος – ten sam i λογος – mowa) jest terminem występującym w dwóch znaczeniach: W potocznym ujęciu znaczy tyle, co „powtórzenie tego, co zostało już powiedziane w innej formie” i wywodzi się z pism Dionizjusza z Halikarnasu. W logicznym znaczeniu zostało użyte po raz pierwszy przez Ludwika Wittgensteina (Tractatus logico-philosophicus 1922). Rozumie się przez nie wyrażenie, które jest prawdziwe na mocy swojej formy - budowy (dokładniej: które jest prawdziwe w każdej niepustej dziedzinie). Tak rozumianymi tautologiami są wszystkie prawa klasycznego rachunku zdań i rachunku kwantyfikatorów. Tautologie logiczne są to zdania a priori analityczne – niezależne od doświadczenia, (konieczne i powszechne). Tautologie potoczne - wypowiadające to tylko, co zawarte jest w podmiocie gramatycznym zdania, objaśniają (przekładają) tylko wiedzę już w nim zawartą - orzecznik jest przekładem podmiotu - np. „Trójkąt ma trzy kąty”, „Trójkąt jest figurą geometryczną” (bo definicja brzmi: „Trójkąt to figura geometryczna płaska, o trzech kątach”). W gramatyce tautologie potoczne są czasem stosowane dla podkreślenia czegoś, a pozorne tautologie, żeby użyć dwóch znaczeń tego samego słowa (na przykład "duże !6
duże litery" oznacza kapitaliki dużych rozmiarów). Często jednak są po prostu błędem stylistycznym i należy ich unikać. Tezy języka prawdziwość (lub fałszywość) określa się na mocy praw logicznych i postulatów języka, ustalających znaczenie wyrażeń języka. Na przykład „wszyscy kawalerowie są nieżonaci" jest zdaniem tego rodzaju, gdyż dopiero znajomość znaczenia (definicji) pojęcia „kawaler" pozwala ustalić jego prawdziwość Zdania syntetyczne: Empiryczne. Ontologiczne Zdania empiryczne: Jednostkowe – o poszczególnych obiektach i zbiorach. Egzystencjalne – zdania o istnieniu; mogą być czyste i mieszane (zawierające elementy uogólnienia). Ogólne – orzekające o większej liczbie obiektów; numerycznie ogólne lub ściśle ogólne Czyli formułując wnioski z pracy badawczej, będą się Państwo starali przejść od zdania jednostkowego do ogólnego, a statystyka ma Państwu pomóc określić, na ile ta procedura jest wiarygodna… Zdania ontologiczne: Służą do opisu ogólnych charakterystyk rzeczywistości. Są typowe dla filozofii. Pełnią funkcję deskryptywną lub eksplanacyjną, ale nie mogą pełnić funkcji prognostycznej Metody sprawdzania zdań Weryfikacja – wykazanie prawdziwości w całym zakresie stosowalności tego twierdzenia Konfirmacja – potwierdzenie prawdziwości dla pewnej liczby przypadków Falsyfikacja – wykazanie fałszywości twierdzenia Dyskonfirmacja – osłabienie wiarygodności twierdzenia Definicja Kazimierza Ajdukiewicza: Wnioskowanie jest to proces myślowy, w którym na podstawie mniej lub bardziej stanowczego uznania przesłanek dochodzimy do uznania wniosku, którego bądź dotychczas nie uznawaliśmy stale, bądź uznawaliśmy mniej stanowczo; przy czym stopień stanowczości uznania wniosku nie przewyższa stopnia uznania przesłanek. To znaczy: Na podstawie badań mogę stwierdzić, że zastosowany sposób postępowania terapeutycznego przyniósł poprawę u wszystkich badanych -to jest moja przesłanka Wniosek: u kolejnego chorego, cierpiącego na chorobę zwyrodnieniową kolan, który został poddany tej procedurze powinna nastąpić poprawa Typy wnioskowania Dedukcyjne – wniosek wynika logicznie z przesłanek Niededukcyjne – wniosku nie da się logicznie wyprowadzić z przesłanek; takie wnioskowanie może być indukcyjne bądź redukcyjne Źródło: Mała encyklopedia logiki Zakład Narodowy Imienia Ossolińskich, 1970 Wnioskowania subiektywnie… pewne – stopień pewności uznania wniosku jest taki sam, jak stopień uznania prawdziwości (pewności) przesłanek niepewne – stopień uznania pewności wniosku jest mniejszy niż stopień uznania przesłanek !7
Wnioskowania mogą być poprawne lub nie, ale nie są prawdziwe lub fałszywe –nie są sądami. Prawdziwy lub fałszywy może być natomiast wniosek. Gdy fałszywa jest któraś z przesłanek pojawia się BŁĄD MATERIALNY! Błąd materialny: błąd we wnioskowaniu polegający na tym, że któraś z przesłanek uznanych za prawdziwą, w rzeczywistości jest fałszywa. Wniosek wnioskowania obarczonego błędem materialnym może (choć nie musi) być fałszywy. Błędy materialne można popełnić w różnych typach wnioskowań, nie tylko w rozumowaniach dedukcyjnych. Szczególnie narażone są na nie wnioskowania entymematyczne Błąd materialny P1: wszystkie zwierzęta wodne są rybami, P2: wszystkie ryby mają skrzela, Wniosek: wszystkie zwierzęta wodne mają skrzela. P1: Ptaki wylęgają się z jaj. P2: Krokodyl jest ptakiem. Wniosek: krokodyle wylęgają się z jaj. Sprzeczność przesłanek Prostym przykładem pary zdań sprzecznych są zdania: „Kraków jest stolicą Polski”, „Kraków nie jest stolicą Polski”. Z pary zdań sprzecznych jedno musi być prawdziwe, a drugie fałszywe. Kryjący sprzeczność zbiór zdań musi z konieczności zawierać zdania fałszywe. Jeśli więc w przesłankach pewnego wnioskowania kryje się sprzeczność, to takie wnioskowanie nie może być materialnie poprawne: co najmniej jedna z przesłanek musi być fałszywa. Błąd sprzeczności w przesłankach jest więc szczególną, bardzo złośliwą postacią błędu materialnego. Na przykład „Wszystkie kobiety dobrze reagują na leczenie zimnem” i „niektóre kobiety odczuwają negatywne skutki leczenia zimnem” nie może prowadzić do wniosku: krioterapia jest metodą z wyboru u kobiet… W przypadku wnioskowania subiektywnie pewnego wniosek musi logicznie wynikać z przesłanek (nie po prostu wynikać, ale logicznie wynikać czyli opierać się ostatecznie na jakiejś tautologii). Wynikanie logiczne jest zawężeniem pojęcia wynikania używanego w języku potocznym Ze zdania A wynika zdanie B zawsze i tylko wtedy, gdy prawdziwe jest zdanie warunkowe mające zdanie A za poprzednik, a zdanie B za następnik. Wynikanie logiczne: ze zdania A wynika logicznie zdanie B –zawsze i tylko wtedy, gdy – okres warunkowy o poprzedniku A i o następniku B jest prawdą logiczną. Zdanie X jest prawdą logiczną gdy jest tautologią lub da się z tautologii otrzymać przez zastąpienie zmiennych wyrażeniami stałymi. Wtedy wnioskowanie takie nazywa się formalnie poprawnym. Jeśli ten warunek nie jest spełniony, pojawia się BŁĄD FORMALNY Wnioskowanie a wnioski Wnioskowanie subiektywnie pewne jest w świetle wiedzy wnioskującego „konkluzywne” zawsze i tylko wtedy, gdy jego wniosek wynika logicznie z przesłanek !8
lub wynika z nich entymematycznie, z uwagi na pewne zdania należące do wiedzy wnioskującego. Przesłanki muszą być prawdziwe i prawomocnie przyjęte, natomiast wnioskowanie zależy od wiedzy wnioskującego… Na przykład P1: Warszawa jest stolicą Polski, P2: Madryt jest stolicą Hiszpanii, Wniosek: Helsinki są stolicą Finlandii. I co z tego, że wszystkie te zdania są prawdziwe? K. Ajdukiewicz: Wnioskowania, którego przesłanki są prawdziwe, nie uznamy jednak jeszcze za poprawne, jeżeli przesłanki te są bezpodstawnie przyjęte. Tak np. w dowodzie jakiegoś twierdzenia matematycznego nie można się opierać na innym twierdzeniu, nawet prawdziwym, jeżeli to twierdzenie nie zostało już przyjęte czy to jako aksjomat, czy jako twierdzenie oczywiste, czy też na podstawie dowodu. Żądamy więc od sądów, które mają we wnioskowaniu zostać użyte jako przesłanki, nie tylko tego, żeby były prawdziwe, ale żądamy ponadto, aby sądy te nie były bezpodstawnie przyjęte, lecz aby ich prawdziwość była z góry w należyty sposób zagwarantowana. Wnioskowanie, w którym w charakterze przesłanek występują sądy bezpodstawnie przyjęte, popełnia błąd zwany petitio principii. (Termin ten znaczy dosłownie tyle, co „żądanie początku"; istotnie, zarzucając jakiemuś procesowi wnioskowania ten błąd, żądamy innego początku dla tego procesu, mianowicie domagamy się, aby wnioskujący nie zaczynał od tych przesłanek, które bezpodstawnie przyjął, lecz aby zaczął głębiej, od sądów, na których mógłby się oprzeć przy uzasadnianiu tych przesłanek). Na przykład: Student udowadnia, że trening metodą Nordic Walking korzystniej wpływa na redukcję masy ciała niż tradycyjny trening marszowy. Podaje jako wytłumaczenie, że trening NW angażuje więcej mięśni, nie tylko mięśnie kończyn dolnych. Musi jednak podać źródło, na którym się oparł, podając to wytłumaczenie… Wnioskowanie dedukcyjne: Jeśli pada deszcz, jest mokro. Przesłanka: Pada deszcz. Wniosek: zatem jest mokro. Wnioskowanie, z którego przesłanek wniosek logicznie wynika, jest wnioskowaniem dedukcyjnym w sensie absolutnym. Wnioskowanie, z którego przesłanek wniosek wynika entymematycznie z uwagi na pewne zdania wchodzące w skład wiedzy wnioskującego nazywa się wnioskowaniem dedukcyjnym w świetle wiedzy wnioskującego. Jeśli ktoś jest studentem, ma indeks. Amelka jest studentką. Wniosek: Amelka ma indeks Ponieważ: jeżeli p, to q i p więc: q Jeśli przesłanki są prawdziwe, wniosek musi być prawdziwy. Wszystkie koty są szare. Mruczuś jest kotem. Wniosek: Mruczuś jest szary… Uwaga! !9
Prawdziwość wszystkich przesłanek wnioskowania dedukcyjnego przesądza o prawdziwości jego wniosku. Jeśli natomiast jakaś przesłanka wnioskowania dedukcyjnego jest fałszywa, to jego wniosek może być fałszywy, ale może też być prawdziwy. Jak Mruczuś… Ponieważ: jeżeli p, to q i jeżeli q, to r, więc: jeżeli p, to r Jeżeli jesteś studentem, jesteś człowiekiem. Jeżeli jesteś człowiekiem, masz dwie nogi. A zatem, jeżeli jesteś studentem, masz dwie nogi… Czyż nie wiadomo, że czas to dozorca? Bo czas to pieniądz…. Z wynikaniem logicznym wiążą się dwa podstawowe błędy logiczne: błąd formalny, zwany też błędem non sequitur, błąd niekonsekwencji. Najkrócej mówiąc, błąd formalny polega na dopatrywaniu się związku wynikania logicznego tam, gdzie go nie ma, a błąd niekonsekwencji polega na nierespektowaniu zachodzącego związku wynikania logicznego. Innymi słowy błąd formalny polega na uznaniu za dedukcyjne wnioskowania, w którym konkluzja nie wynika logicznie z przesłanek. Błąd niekonsekwencji polega natomiast na uznaniu za prawdę wszystkich przesłanek wnioskowania dedukcyjnego i jednoczesnej odmowie uznania za prawdę konkluzji tego wnioskowania. Błąd bezpodstawności P1 Bociany mają czerwone dzioby. P2 Jeśli bociany mają czerwone dzioby, to mają białe skrzydła. W: Bociany mają białe skrzydła. Błąd formalny (łac. non sequitur – "nie wynika") błąd logiczny we wnioskowaniu dedukcyjnym. Polega na tym, że z przesłanek danego wnioskowania nie wynika logicznie jego wniosek. Zazwyczaj popełniany wtedy, gdy wnioskujący uznaje swoje wnioskowanie za wnioskowanie oparte na prawie logicznym, a więc wnioskowanie dedukcyjne, a w rzeczywistości tak nie jest. W istocie błąd formalny jest więc błędnym uznaniem za wnioskowanie dedukcyjnie wnioskowania niebędącego takim. Wnioskowanie, w którym popełniono błąd formalny, może (chociaż nie musi) prowadzić do wniosku fałszywego. Mimo że popełnienie błędu formalnego nie w każdym przypadku przesądza o fałszywości wniosku, wnioskowanie obarczone błędem formalnym nie opiera się na żadnym prawie logicznym, nawet prawdziwy wniosek takiego wnioskowania nie jest więc wnioskiem dedukcyjnym i pewnym. Gdy jednak ktoś zdaje sobie sprawę, że rozumuje według rozumowania uprawdopodobniającego, nie dedukcyjnego, nie popełnia on błędu formalnego. Przykłady błędów formalnych Stwierdzenie następnika – nieuprawnione przekonanie, że jeśli skoro jakieś zjawisko wystąpiło, musiało nastąpić inne. Np. jeśli kogut dzisiaj zapieje, to słońce wstanie. Kogut zapiał, więc słońce wstanie. Zanegowanie poprzednika – wnioskowanie, że skoro nie wystąpiło jedno zjawisko, to nie wystąpi też inne. Np. jeśli dzisiaj jest wtorek, to idę do pracy. Ale dzisiaj nie ma wtorku, więc nie idę do pracy. !10
Odwrócenie implikacji – To twierdzenie, że skoro z jednej rzeczy wynika druga, to również z tej drugiej wynika pierwsza. Np. skoro pacjent po masażu ma zaczerwienioną skórę, a widzę, że ma zaczerwienioną skórę, to musiał mieć masaż. Zanegowanie poprzednika i następnika – przekonanie, że skoro A, to B, to skoro nie A, to nie B. Np. każdy, kto twierdzi, że widział Yeti, jest chory psychiczne, a więc każdy, kto twierdzi, że nie widział Yeti, nie jest chory psychicznie. Błąd rozdzielania – jeśli dany zbiór obiektów ma daną cechę, to każdy obiekt tego zbioru też ją ma. Np. morze jest wielkie, a składa się z mnóstwa kropel, więc każda kropla wody z tego morza jest wielka. Błąd składania – przeciwieństwo poprzedniego: skoro każdy element ma daną cechę, to ich złożenie też ją będzie miało. Skoro pozytywnie działa i krioterapia, i parafango, to na pewno razem też podziałają pozytywnie… Fałszywy dylemat – dwie różne procedury prowadzą do tego samego efektu, więc przyjmujemy, że ten efekt jest nieunikniony. Wypiję za dużo wódki, będę pijany. Wypiję za dużo koniaku, to też będę pijany. Co nie zrobię, to i tak się upiję. Błędne koło – kiedy najpierw wygłaszamy jakąś tezę, a potem próbując jej dowieść, powtarzamy ją… P1 Porty leżą nad morzem. P2 Ustka leży nad morzem. P3 Ustka jest portem. W: Ustka leży nad morzem. Ludzie są niegodziwi, bo natura ludzka jest zepsuta, a to, że natura ludzka jest zepsuta, poznać najlepiej po niegodziwości ludzi. Błąd ekwiwokacji – kiedy używa się tego samego słowa w różnym znaczeniu. Miednice są obecnie wykonywane z plastiku. Ona ma szeroką miednicę, więc trzeba użyć sporo plastiku… Wnioskowania, w których prawdziwość przesłanek nie przesądza o prawdziwości wniosku, są wnioskowaniami zawodnymi. Wśród wnioskowań zawodnych wyróżniają się wnioskowania uprawdopodobniające, czyli takie, w których wychodząc od prawdziwych przesłanek można dojść do fałszywego wniosku, lecz można też oczekiwać nie bez uzasadnienia, że wniosek będzie prawdziwy. Prawdziwe przesłanki: Kto pracuje, ten zarabia. Kto więcej pracuje, więcej zarabia. Wniosek: Każdy widzi… Wnioskowanie niededukcyjne, którego przesłanki wynikają logicznie z wniosku albo którego pewne przesłanki wynikają logicznie z koniunkcji wniosku i innych przesłanek nazywa się wnioskowaniem redukcyjnym. Ponieważ: jeżeli p, to q i q, więc: p Odwrotność… Jeżeli Fafik był szczepiony przeciwko wściekliźnie, to ma numerek. Fafik ma numerek. A zatem Fafik był szczepiony przeciwko wściekliźnie. Indukcja enumeracyjna Przez proste wyliczanie przypadków , metoda uogólnienia bardzo naiwna… Przykład o kurczaku, podany przez Bertranda Russela: nie zawsze można do końca przewidzieć zdarzenie na podstawie ciągu zdarzeń podobnych !11
Jest prawdziwa tylko wtedy, gdy analiza obejmuje absolutnie wszystkie przypadki, i dla każdego przesłanka jest spełniona. Wtedy indukcja enumeracyjna zmienia się w zupełną. Nawet wielka liczba stwierdzonych przypadków nie wystarcza do uznania wniosku przez indukcję, gdy jest chociaż JEDEN przypadek wykluczający daną prawidłowość!!! Prawdopodobieństwo logiczne: stopień pewności, z jaką można uznać dane zdanie za prawdziwe. Potocznie prawdopodobieństwo matematyczne utożsamia się z logicznym, i temu służy ocena istotności statystycznej… Indukcja enumeracyjna niezupełna P1’, P1’’ Wojtek studiuje, Wojtek ma indeks P2’, P2’’ Julek studiuje, Julek ma indeks P3’, P3’’ Andzia studiuje, Andzia ma indeks P4’, P4’’ Krycha studiuje, Krycha ma indeks W: Każdy, kto studiuje, ma indeks Indukcja eliminacyjna Wnioskowanie, w którym jedna z przesłanek jest alternatywą kilku zdań ogólnych, inne przesłanki są zdaniami jednostkowymi obalającymi wszystkie człony tej alternatywy z wyjątkiem JEDNEGO, zaś wnioskiem jest ten JEDEN nieobalony przez przesłanki jednostkowe człon tej alternatywy. Jest to wnioskowanie SUBIEKTYWNIE PEWNE! Indukcja eliminacyjna jako wnioskowanie dedukcyjne Każde S jest P lub żadne S nie jest P A jest S i a jest P Zatem : każde S jest P Przykład indukcji eliminacyjnej Mamy pewność, że prawdziwa jest następująca alternatywa: „Każdy student musi zaliczyć przedmiot” lub „żaden student nie musi zaliczyć przedmiotu”. Wszystkie osoby badane (x1,x2,xn) są studentami i każdy z nich musiał zaliczyć przedmiot. Wniosek: Każdy student musi zaliczyć przedmiot. Uwaga! Prawidłowo zbudowana indukcja eliminacyjna jest wnioskowaniem dedukcyjnym, czyli subiektywnie pewnym, w przeciwieństwie do indukcji enumeracyjnej, która jest wnioskowaniem subiektywnie niepewnym (opartym o prawdopodobieństwo). Indukcja eliminacyjna – Francis Bacon Sformułować wyczerpującą listę wzajemnie wykluczających się hipotez. Na takiej liście znajduje się hipoteza prawdziwa. Stopniowo wykluczać hipotezy fałszywe na drodze eksperymentu, który każdorazowo eliminuje co najmniej jedną z alternatywnych hipotez. Jest to tzw. eksperyment krzyżowy. A zatem to Baconowi... zawdzięczamy pojęcie eksperymentu! Eksperyment polega na zaaranżowaniu sytuacji stwarzającej okazję do obserwacji, która bez planowego działania uczonego mogłaby się nie nadarzyć. Eksperyment różni się od obserwacji tym, czym przesłuchanie od podsłuchiwania… !12
Oznacza to jednak, że: już planując eksperyment stawiamy pewne hipotezy; eliminujemy wpływ czynników ubocznych – a uznanie jednych czynników za istotne, a innych za uboczne też jest swego rodzaju hipotezą; liczba czynników branych pod uwagę musi być ograniczona, bo życia nie starczy… A zatem: Metoda Bacona nie może zadziałać bez przyjęcia pewnych przesłanek. David Hume udowodnił, że tych przesłanek nie da się przyjąć na podstawie samego tylko doświadczenia. Immanuel Kant doszedł do wniosku, że przesłanki trzeba przyjąć a priori – czyli że podmiot poznający musi być a priori wyposażony w pewne mechanizmy porządkowania doświadczenia, nazwane formami zmysłowości i kategoriami czystego intelektu Wnioskowanie entymematyczne, także entymemat lub entymem
(z gr. ἐν θυµῶ - w umyśle) takie wnioskowanie dedukcyjne, w którym została przemilczana któraś z przesłanek. We wnioskowaniu, w którym pominięto jakąś konieczną przesłankę, wniosek nie wynika logicznie z koniunkcji przesłanek przyjętych - mówi się wtedy jednak o wynikaniu entymematycznym. Sama pominięta przesłanka nazywa się przesłanką entymematyczną. Wnioskowanie entymematyczne Korzystające z nieujawnionych przesłanek, które nie wynikają z aksjomatów. Jeśli pada deszcz, muszę kupić skarpetki… (nieznaną przesłanką jest, że przemakają mi buty i dzisiejsze skarpetki są do likwidacji…) Wnioskowania entymematyczne są rzeczywiście przeprowadzane, nawet w matematyce. Przesłanki pomija się najczęściej ze względu na ich oczywistość i związaną z tym oszczędność środków. Zdarza się jednak często, że wnioskujący nie uświadamia sobie aktualnie pominiętych przesłanek. Zarazem pominięte przesłanki mogą być zdaniami fałszywymi i przyjętymi bezpodstawnie. Dlatego też wnioskowania entymematyczne są szczególnie częstym źródłem błędów materialnych, a ujawnianie przesłanek entymematycznych ważnym sposobem wykrywania błędów logicznych w ogóle. Wnioskowanie przez analogię Wnioskujemy, że pewna prawidłowość, która potwierdziła się w n przypadkach, potwierdzi się również w n+1 przypadku. Wnioskowanie na mocy podobieństwa: coś zachodzi w przedmiocie x, a przedmiot y jest do niego podobny, zatem zajdzie to też w przedmiocie y. Ten typ wnioskowania nie jest tak wrażliwy na ten jeden „wykluczający przypadek”, nawet znając takie wyjątki, możemy dalej wnioskować „per analogiam”. Wnioskowanie przez analogię – typ 1 P1’, P1’’ Stachu ćwiczy, Stachu wzmacnia mięśnie. P2’, P2’’ Bronek ćwiczy, Bronek wzmacnia mięśnie. P3 Grześ ćwiczy. W: Grześ wzmacnia mięśnie Wnioskowanie przez analogię – typ 2 P1’, P1’’ Igor hoduje rybki, Łukasz hoduje rybki. P2’, P2’’ Igor sprzedaje przychówek, Łukasz sprzedaje przychówek. P3’, P3’’ Igor dorabia do stypendium, Łukasz dorabia do stypendium. P4 Igora stać na piwo. !13
W: Łukasza stać na piwo. Zasady wnioskowania na podstawie współwystępowania zjawisk Jeżeli zdarza się A, zdarza się B Świeci słońce. Jest ciepło. Zawsze???? Zasady wnioskowania przy analizie współwystępowania zjawisk Sformułowania pochodzą od Johna Stuarta Milla, noszą nazwę pięciu kanonów. Łączne zastosowanie wszystkich kanonów prowadzi do ustalenia praw wyrażających związki przyczynowe między zjawiskami. Jeżeli jakaś okoliczność stale towarzyszy występowaniu danego zjawiska, podczas gdy inne okoliczności ulegają zmianie, to okoliczność ta jest przyczyną lub skutkiem badanego zjawiska KANON JEDYNEJ ZGODNOŚCI 1. X występuje razem z A, B, C, D 2. X występuje razem z A, B, C, - przy braku D 3. X występuje razem z A,-, C, D przy braku B 4. X występuje razem z -, B, C, D przy braku A Jeżeli jakaś okoliczność zachodzi, gdy dane zjawisko występuje, a nie zachodzi, gdy dane zjawisko nie występuje, podczas gdy wszystkie pozostałe okoliczności za każdym razem są te same, to okoliczność ta jest skutkiem albo przyczyną danego zjawiska KANON JEDYNEJ RÓŻNICY 1.Y występuje gdy zachodzą A, B, C, D 2. Y nie występuje gdy zachodzą A, B, C, - lecz brak D Jeżeli jedno zjawisko zmienia się ze zmianą drugiego zjawiska, podczas gdy towarzyszące im okoliczności nie ulegają zmianie, to pomiędzy tymi zjawiskami zachodzi związek przyczynowo skutkowy KANON ZMIAN TOWARZYSZĄCYCH M występuje: gdy występują A, B, C, D, przy czym gdy M występuje … C występuje: z małą siłą z małą siłą ze średnią siłą ze średnią siłą z dużą siłą z dużą siłą I pozostałe… kanon połączonej zgodności i różnicy; kanon reszt - to wnioskowanie, które przebiega według następującego schematu: Obserwujemy jakieś występujące razem i podobne sobie zjawiska Z1, Z2, Z3, ..., Zn, i towarzyszące im, jako ich skutki, zjawiska S1, S2, S3, ..., Sn, usiłując dociec, które z obserwowanych zjawisk jest przyczyną zjawiska S1. Zauważamy przy tym, że zjawisko Z2 jest przyczyną zjawiska S2, zjawisko Z3 – przyczyną zjawiska S3, a Zn – przyczyną Sn. Wobec tego mamy prawo domniemywać, że przyczyną zjawiska S1 jest zjawisko Z1. Spełnienie tych warunków wydaje się jednak mocno wątpliwe… W praktyce metodą indukcji można się posługiwać jedynie w sposób bardziej swobodny, porównując poszczególne przypadki pod względami uznanymi za istotne w danym kontekście badawczym. Żeby zaś odróżnić czynniki istotne od nieistotnych, trzeba poczynić wstępne założenia… Domaga się to przyjęcia Kantowskiego postulatu a priori… !14
Karl R. Popper Dążenie do udowadniania hipotez jest nienaukowe, jest raczej pseudonauką. Pseudonauki (astrologia, marksizm!, psychoanaliza Freuda) mają odpowiedź na wszystko, cokolwiek się zdarzy, zawsze jest gotowe wyjaśnienie. Nie może się zdarzyć nic, na co teoria pseudonaukowa nie miałaby wyjaśnienia… Stąd próby innego podejścia, np. falsyfikacjonizm Można wysnuć zastrzeżenia wobec każdego mniemania (choć nie zawsze trzeba); Jakieś mniemania musimy jednak przyjąć, bo bez nich nie ma oczekiwań, a bez oczekiwań nie ma spostrzeżeń. Postrzeżenie czasem jest niespodzianką, która rodzi wątpienie. Wątpienie prowadzi do dociekania, a ono do rewizji mniemań. Klasyczna koncepcja wyjaśniania - Carl Hempl i Paul Oppenheim Model dedukcyjno-nomologiczny (model D-N) – greckie νοµος oznacza prawo natury, prawo nadrzędne. Zbiór przesłanek musi zawierać co najmniej jedno prawo i musi być ono istotną przesłanką wyjaśniania. Wniosek musi być sprawdzalny w eksperymencie lub obserwacji. Zdania należące do przesłanek muszą być prawdziwe. Wyjaśnienie prawidłowości polega zatem na wyprowadzeniu jej z ogólniejszego prawa lub kilku praw. Na przykład: Prawo swobodnego spadania można wyjaśnić w oparciu o prawo ciążenia. Trudności: Ilekroć spada wskazówka barometru, nadciąga burza. Spada wskazówka – wniosek – nadciąga burza. Regularne zażywanie tabletek antykoncepcyjnych zapobiega ciąży. Feliks stale zażywa tabletki. A zatem nie zachodzi w ciąże, ponieważ regularnie zażywa tabletki… Niestety, prawo D-N…nie spełnia postulatu asymetrii wyjaśniania. Jeśli A można wyjaśnić za pomocą B, to B nie można wyjaśnić za pomocą A. Ponadto korelacja między zjawiskami nie przesądza, że jedno jest przyczyną drugiego. Mogą mieć inną, wspólną przyczynę (jak spadek ciśnienia w przykładzie z barometrem) I jeszcze raz Popper: Wiedza zastana: składa się z wiedzy potocznej oraz tych teorii naukowych, którymi są uteoretyzowane zdania aktualnie traktowane jako zdania bazowe. Tym samym zdania te są chwilowo wyłączane spod krytyki. Ten sam wynik eksperymentu może falsyfikować daną hipotezę lub nie, zależnie od zawartości wiedzy zastanej. MARCHEWKA! Jak się zabrać do pisania pracy? Od czego zacząć? Prawda jawi się człowiekowi najpierw pod postacią pytania: Czy życie ma sens? Ku czemu zmierza? Człowiek nie może przecież oprzeć swego życia na czymś nieokreślonym, na niepewności albo na kłamstwie, gdyż takie życie byłoby nieustannie nękane przez lęk i niepokój. Można zatem określić człowieka jako tego, który szuka prawdy. Jest nie do pomyślenia, aby poszukiwanie tak głęboko zakorzenione w ludzkiej naturze było całkowicie bezcelowe i pozbawione sensu. Już sama zdolność poszukiwania prawdy i stawiania pytań podsuwa pierwszą odpowiedź. Człowiek nie podejmowałby poszukiwania czegoś, o czym nic by nie wiedział i co uważałby za absolutnie nieosiągalne. Tylko perspektywa uzyskania odpowiedzi może go nakłonić do postawienia pierwszego kroku. Istotnie, tak właśnie dzieje się zazwyczaj w procesie badań naukowych. Jeśli naukowiec kierujący się jakąś intuicją zaczyna szukać logicznego i sprawdzalnego wyjaśnienia określonego zjawiska, od samego początku !15
jest przekonany, że znajdzie odpowiedź; stąd też nie zraża się niepowodzeniami. Nie uważa owej pierwotnej intuicji za bezużyteczną tylko dlatego, że nie osiągnął swojego celu; słusznie uznaje raczej, że nie udało mu się dotąd znaleźć właściwego rozwiązania. (JPII Fides et ratio) Wierność prawdzie…wyznacza w ogóle sens badań, jest nieodzownym warunkiem ich poprawności, gwarantuje ich przydatność w poszerzaniu i pogłębianiu wiedzy Czyli od początku: stawiam pewne pytanie / problem. To pytanie jest celem pracy. Temat pracy zwykle jakoś opisuje badania, implikując cel, Np. temat: „Występowanie odczynu uzdrowiskowego wśród kuracjuszy Połczyna Zdroju w różnych porach roku” implikuje pytanie: czy częstość odczynu uzdrowiskowego u kuracjuszy zależy od pory roku… Przystępując do udzielania odpowiedzi na to pytanie, muszę ustalić, co już wiadomo… Czyli rozpoznaję teren. Zbieram literaturę. Czytam, czytam, czytam. To, co już napisano na dany temat. Zanim badacz się zabierze do pracy, musi przebrnąć przez to, co już na dany temat wiadomo. Jest to czasem żmudne przedzieranie się przez tony druku. Żeby w ogóle przetrwać taki zabieg, trzeba mieć metodę zbierania informacji. Wstępna selekcja – według zagadnienia, tytułów, autorów. Wstępne czytanie materiałów: przeglądanie pod kątem, czy się przyda, metodą po przekątnej strony. Jeśli nie – można odłożyć. Jeśli tak – czyta się dokładnie, robiąc notatki. Oprócz streszczenia artykułu przyjdzie teraz kolej na zapoznanie się z całością niektórych. Sporządzone notatki można teraz pogrupować pod kątem pracy – do wstępu, do metod, do dyskusji. Dane bardzo podstawowe Encyklopedie – źródło wiedzy elementarnej. Mogą być internetowe – ale muszą być weryfikowalne, czyli podany jest autor zagadnienia, przypisy, odsyłacze. Warto zajrzeć w parę miejsc. Słowniki – też spełniające wymogi naukowości. Zaczynam myśleć nad realizacją celu: czyli ustalam, jakie metody posłużą mi do zebrania danych. Przygotowuję plan badania, ustalam sposób gromadzenia danych. Zakładam bazę danych, spisując szczegółową legendę!!! Źródła, z których można korzystać Podręczniki –najnowsze wydanie z danej dziedziny, chyba że promotor sugeruje wcześniejsze jako bardziej wiarygodne; Artykuły – z ostatnich 10 lat, wyszukane w bazach bibliograficznych; bibliografia artykułów przeglądowych; Strony internetowe – podające autora opracowania!!! – przy cytowaniu adres i data wejścia. Wykorzystywanie pomysłów i fragmentów tekstów innych osób bez podania informacji o ich autorze jest niemoralne i nielegalne! Komitet Etyki w Nauce przy Polskiej Akademii Nauk określa wytyczne korzystania z prac innych badaczy: „Pracownik nauki uznaje wyniki twórczości naukowej za osobiste dobro twórcy. Pracownik nauki przestrzega przyjętych w skali międzynarodowej i skonkretyzowanych w prawie państwowym przepisów prawa autorskiego. !16
Z prac opublikowanych drukiem może korzystać pod warunkiem wskazania źródła i wyraźnego rozgraniczenia osiągnięć własnych i cudzych. Dosłowne zaczerpnięcie fotografii, rysunków, wykresów, tablic oraz dłuższych fragmentów tekstu wymaga uprzedniej zgody autora lub wydawcy… Przytaczanie cytatów z cudzych dzieł naukowych jest dopuszczalne tylko w granicach wyznaczonych potrzebą dokładnego i zwięzłego poinformowania o cudzej myśli naukowej. (…) Jak można ocenić wiarygodność źródła, jakim jest strona internetowa? Można to uczynić dowiadując się więcej o stronie, na której zamieszczona jest dana informacja, sprawdzając kto ją stworzył. Czy jest to strona komercyjna? Czy instytucja edukacyjna lub rządowa? A może jest to prywatna osoba? Czy autor strony jest w jakiś sposób związany ze zdarzeniem lub przedmiotem, który opisuje? Czy więc autor jest znany i godny zaufania? Zestaw 10 porad opracowanych przez Stanford Persuasive Technology Lab (Laboratorium Technik Przekonywania przy Uniwersytecie Stanfordzkim). Oryginał w języku angielskim dostępny jest na stronie Stanford Guidelines for Web Credibility. Lista ta została stworzona na podstawie badań grupy ponad 4,500 osób. 1. Pozwól na łatwą weryfikację dokładności prezentowanych przez Ciebie informacji.
Możesz budować wiarygodność Twojej strony internetowej poprzez wprowadzanie zewnętrznych źródeł danych, np. cytaty, referencje, odnośniki do materiałów źródłowych. 2. Pokaż, że autorem strony jest prawdziwa organizacja/osoba.
Wiarygodność informacji jest mocno uzależniona od wiarygodności jej autora. Najprostszą metodą jest opublikowanie prawdziwego, rzeczywistego adresu właściciela strony. Dodatkowym atutem będzie zamieszczenie zdjęcia biura czy przedstawienie zespołu. 3. Udowodnij profesjonalizm autorów oraz przedstawianych treści.
Przedstaw użytkownikowi autorów jako specjalistów. Pokaż mu, że są oni autorytetami ramach swoich dziedzin. 4. Pokaż uczciwość prawdomówność ludzi odpowiedzialnych za zawartość serwisu.
Najważniejszym czynnikiem jest tzw. czynnik ludzki. Należy wyraźnie przedstawić użytkownikowi fakt, że pod drugiej stronie ekranu ma on do czynienia prawdziwymi ludźmi. W tym celu można np. zamieścić serwisie zdjęcia czy biografie autorów. 5. Nie utrudniaj kontaktu z autorem serwisu.
Elementarnym zabiegiem jest publikacja adresu, numeru telefonu, a także adresu poczty internetowej. 6. Zaprojektuj stronę profesjonalnie, adekwatnie do Twoich potrzeb.
Jednym podstawowych kryterium oceny wiarygodności strony internetowej jest jej wygląd. Koniecznie zwróć uwagę na wszystkie składowe projektu: kolorystyka, układ, typografia, grafika itd. 7. Twórz strony łatwe w używaniu i użyteczne.
Badania pokazują, że wiarygodne strony są jednocześnie łatwe w używaniu i użyteczne. Niektórzy autorzy zaspokajając swoje ego, czasem zwyczajnie zapominają o użytkownikach. !17
8. Często aktualizuj zawartość serwisu.
Użytkownicy cenią sobie strony często aktualizowane o nowe treści. Mile widziane jest także odświeżanie informacji starszych. 9. Ograniczaj używanie reklam i materiałów promocyjnych.
W miarę możliwości rezygnuj z reklam na stronie. Jeśli już decydujesz się na ich dodanie, wyraźnie oddziel je od integralnych treści serwisu. Nie używaj reklam wyskakujących. 10. Unikaj wszelkich błędów.
Błędy typograficzne, interpunkcyjne, stylistyczne, ortograficzne, techniczne niszczą wizerunek strony bardziej niż nam się to wydaje. 10 minut przerwy w działaniu serwisu może na zawsze ją uśmiercić. Ogólne zasady oceny prac Obiektywizm i rzetelność badań Dociekliwość badań Ścisłość obserwacji Forma wykładu gwarantująca jasność myśli Przejrzysta struktura pracy Sposób pisania: mało słów, dużo myśli Thomas Edison …”Nigdy nie należy wykręcać się od obowiązków łaską boską…” Lapidarnie wyjaśniona struktura Cz. I – piszę, o czym chcę pisać Cz. II – wykładam, co mam do powiedzenia Cz. III – pokazuję, że napisałem, co chciałem Spis rozdziałów – to pokazuje, czy autor panuje nad strukturą. 1/3 do 1/2 to zasadniczy problem pracy (czyli wyniki i ich omówienie). Reszta tekstu to rozdziały wstępne podsumowanie z bibliografią.. Podejrzane są prace, które składają się głównie ze wstępu… Tatusiu, czy wąż ma ogon? Wyłącznie, synku… Praca magisterska jest sprawdzianem opanowania nabytych umiejętności twórczości, pomysłowości, samodzielności myślenia – na zadany temat umiejętności wykładu – logicznego przedstawienia toku myślenia i uzyskanych wyników Celem piszącego, który z założenia wie więcej niż czytelnik pracy, jest zapoznanie czytelnika z tematem, o którym ten chce się czegoś dowiedzieć. Piszący prowadzi czytelnika torem swojej myśli, doprowadzając go tam, gdzie zamierza. Ćwiczebny charakter pracy nie zwalnia od obiektywizmu badawczego, nie wyklucza krytycyzmu wobec uznanych twierdzeń, zakłada wręcz! krytycyzm wobec własnych umiejętności Zasady przygotowywania prac mgr – z naszej uczelni A/ Prace w zakresie nauk biomedycznych Budowa pracy poglądowej (licencjacka i ew. magisterska) nie jest sformalizowana. Podział na rozdziały i podrozdziały zależy w całości od sposobu ujęcia tematu. Należy jednak zwrócić szczególną uwagę na to, aby zawartość rozdziałów odpowiadała tytułowi pracy. Zaleca się, aby ponad ¾ objętości pracy związana była bezpośrednio z tematem. !18
Piśmiennictwo powinno być zestawione wg zasad podanych w dalszej części zaleceń. Streszczenie powinno zajmować 1 stronę standardową, powinno być tłumaczone na język angielski i zawierać główne zagadnienia pracy (tłumaczenie na język angielski w pracy licencjackiej wskazane, w magisterskiej obowiązkowe). Słowa kluczowe w liczbie 3-6 powinny w miarę możliwości odpowiadać terminom MeSH (Medical Subject Headings (MeSH) - język haseł przedmiotowych z zakresu medycyny i nauk pokrewnych tworzony jest w formie kontrolowanego słownika). Hasła te oraz szczegółowe informacje znaleźć można pod adresem http://www.mesh.pl Praca powinna składać się z następujących elementów w kolejności: strona tytułowa, ew. podziękowania, ew. wykaz skrótów, spis treści, rozdziały: Wstęp, Materiał i Metoda, Cel Pracy, Wyniki, Dyskusja, Wnioski, Piśmiennictwo, Streszczenie i Słowa Kluczowe. Rozdziały: Wstęp oraz Materiał i Metoda powinny zajmować około 1/3 objętości pracy. Powinny zawierać przesłanki skłaniające do podjęcia tego tematu, jasno określony cel pracy, podanie materiału oraz metod badawczych z dokładnym opisem, aby badania i wyniki takie można było powtórzyć i zweryfikować. Rozdział Wyniki powinien zajmować kolejne około 1/3 objętości pracy i zawierać wyniki w postaci tekstu, tabel, wykresów, fotografii itd. Zaleca się podanie wyników przynajmniej w postaci statystyki opisowej. Rozdział Dyskusja, Wnioski, Piśmiennictwo powinien zajmować kolejne około 1/3 objętości pracy. Dyskusja powinna zawierać omówienie własnych wyników, z ewentualnym wyjaśnieniem zjawisk i hipotez im towarzyszących oraz zawierać porównanie własnych wyników z danymi z piśmiennictwa. Wnioski powinny być sformułowane w postaci 3-5 punktów najistotniejszych dla tematu pracy. W pracy powinny być wykorzystane publikacje nie starsze niż 10 lat, chyba że wobec braku aktualnych doniesień konieczne jest wykorzystanie starszych źródeł (publikacji lub klasycznych monografii). Zaleca się, aby praca licencjacka zawierała co najmniej 15 pozycji piśmiennictwa a praca magisterska co najmniej 20 pozycji piśmiennictwa. Badania przygotowawcze Nauka istnieje tam, gdzie w sposób świadomy kontrolujemy sposób zdobywania materiału, jego przeróbki teoretycznej i opracowanie wyników. Żeby móc to osiągnąć, trzeba jasno nakreślić cel badania. Ustalony cel określa treść, zakres i cechy materiałów, które mają być podstawą badań. Materiały Bardziej lub mniej dokładne – zależnie od stawianego celu Jeśli chodzi o dane orientacyjne, o określenie kierunku badań – wystarczają materiały przybliżone Jeśli chodzi o dokładne opisanie stanu lub o weryfikację już opisanych osiągnięć, konieczna jest duża dokładność Który lepszy? Zbyt dokładny materiał jest marnotrawstwem dla pierwszego typu badań (i zamęcza badacza…). Materiał zbyt ogólnikowy dla drugiego typu badań jest zupełnie nieprzydatny… Błędem jest także spodziewać się szczegółowych wyników na podstawie ogólnikowych materiałów! Materiały statystyczne
!19
Jeśli niedostępne jest doświadczenie własne, a w niektórych naukach niemal zawsze tak jest, można opierać się na danych już zgromadzonych, pod warunkiem ich poprawnego zgromadzenia. Wybór materiału musi również podlegać ścisłym regułom. Tzw. normy, a poprawniej wartości referencyjne, są właśnie przykładem danych zebranych przez kogo innego, opracowanych i podawanych z dużym stopniem wiarygodności… Tak zebrany materiał powinien być: Jednorodny: dotyczyć osobników możliwie do siebie podobnych Wybrany na drodze losowej – zdarzenia powinny być jednakowo prawdopodobne Jeśli przewiduje się dalszy podział na podgrupy, one także muszą być dostatecznie liczne, a przypadki wewnątrz grupy podobne do siebie. Pozyskiwanie danych Wynikających z pomiarów – (w miarę) obiektywnych Zebranych droga ankietowania - subiektywnych Zbieranie danych własnych Z początku wszystko – jak siecią. W tym okresie zwykle nie ma czasu na weryfikację, więc lepiej zebrać więcej wedle ustalonych kryteriów, niż później się martwić. Potem selekcja – zostają już tylko dane ściśle pasujące do przyjętych kryteriów. Selekcji dokonuje się po przejrzeniu całego materiału – aby wyłonić cechy charakterystyczne. Przetwarzanie materiałów: Analiza – rozłożenie tego, co badane, na części i badanie każdej części osobno. Synteza – składanie, zestawianie, ujmowanie czegoś jako całości. Oparta na kojarzeniu. Hipoteza = przypuszczenie. Tworzy obrazy rzeczy, zanim upewni się o ich wyglądzie. Nowy fakt często obala dotychczasowe poglądy i zmusza do stawiania nowych hipotez – a to jest sposób rozwoju wiedzy naukowej. Hipotezę stawiamy, gdy stwierdzonych faktów nie można wyjaśnić na gruncie zdań dotąd uznanych za prawdziwe. Przypuszczenie jest więc najpierw zdaniem wątpliwym, które staramy się udowodnić. Trzeba zatem sprawdzić, na ile jest ono prawdopodobne. Hipoteza … Może zostać potwierdzona lub obalona. Obalenie nie wnosi żadnej wiedzy, neguje jedynie jedną z możliwości wyjaśnienia badanego zjawiska. Pojawia się wtedy konieczność poddania badaniu innych możliwych wyjaśnień. Testowanie hipotezy odbywa się: na podstawie weryfikacji – przez poszukiwanie informacji potwierdzających tę hipotezę na podstawie falsyfikacji – przez poszukiwanie informacji zaprzeczających hipotezie Hipoteza powinna być śmiała! Karl R. Popper zaleca, by była ona odważna, bo łatwiej ją sfalsyfikować i zastąpić poprawniejszą.. !20
Jeśli zaś nie da się sfalsyfikować i będzie należało uznać ją za poprawną, przyniesie większy zysk poznawczy. A jeśli nie ma jak postawić hipotezy? Jeśli zagadnienie jest zupełnie nowe, nie opisane, nie ma literatury – trudno sformułować od początku jakieś własne mniemanie. W takich wypadkach przeprowadza się badanie wstępne, bardzo szerokie, otwarte na wszystkie fakty i okoliczności. Używa się raczej pytań dopełnienia niż rozstrzygających – o czym później. Jednak rzadko takie badanie jest przedmiotem pracy magisterskiej. Hipotezy zbyt ogólne są nie do przetestowania… Nie daje się ani ich udowodnić, ani obalić. Im wyższy poziom ogólności, tym trudniej potwierdzić lub odrzucić. Taką np. hipotezę: „skutki społeczne alkoholizmu są szkodliwe” można nazwać pustą: zawsze jest prawdziwa, ale nic nie wnosi… Pytania i hipotezy powinny być sformułowane w sposób możliwie prosty. Tylko pozornie nie brzmi to naukowo, ale ma duży sens praktyczny. Kiedy hipoteza lub pytanie jest zbyt skomplikowane, z reguły jest trudne do testowania. Klasyfikacja (classis facere) Klasa to zbiór indywiduów o pewnej cesze wspólnej. Pod względem badanej cechy różnią się ilościowo, pod względem innych mogą się różnić jakościowo. Klasyfikacja to podział na podzbiory według przyjętej z góry zasady. Trudności – zdefiniowanie granic, błędy obarczające pomiar, sztywność kryteriów, niejasność kryteriów Przykład: Kategorie wiekowe – przedziały. Nie mogę ich wyznaczyć sztywno, a priori – tylko na podstawie już zebranych danych, bo np. w mojej grupie niektórych przedziałów wiekowych brak. Czyli najpierw muszę obejrzeć dane. Wiek osób grupy badanej, n=35. Wiek posortowany, ta sama grupa Inny przykład: Interesuje mnie, czy ocena Apgar, jaka uzyskał noworodek, mogła wpłynąć na obserwowaną cechę. Badam obecność cechy, lub jej brak. Nie widzę korelacji, czyli związku między rosnącą punktacją w skali Apgar, a obecnością cechy. Jeśli jednak zbadam to wg kategorii opisanyh w literaturze, czyli przy pogrupowaniu dzieci – Apgar 0-3 (stan ciężki), 4-6 (stan średnio ciężki) lub 7-10 (stan dobry), taka zależność się pojawia: tylko najlepsza kategoria Apgar wiąże się z obecnością tej cechy. Psychologia – dziedzina wybitnie niestatystyczna… Ryszard Stachowski i Włodzisław Zeidler (red): Opisowa metodologia badań psychologicznych. Studia i przykłady. Vizja Press & IT, Warszawa 2008. IJerzy Brzeziński, Jerzy Siuta (red): Metodologiczne i statystyczne problemy psychologii. Zysk i s-ka, Poznań 2006. Aleksandra Jaworska: Istotność zmiany w koncepcjach pomiaru skuteczności psychoterapii Zmiana pod wpływem terapii może być uznana, jeśli zmiana w grupie poddanej terapii jest większa niż zmiana, która zaszła w grupie kontrolnej i zmiana ta jest istotna statystycznie. !21
Istotność statystyczna – czyli poziom dopuszczalnego błędu, polegającego na przyjęciu tzw. hipotezy zerowej, która zakłada, że nie ma różnic pomiędzy średnimi w obu porównywanych grupach, podczas gdy różnica ta rzeczywiście istnieje (błąd typu A). Jeśli pomiędzy średnimi można zaobserwować różnicę, której prawdopodobieństwo wystąpienia jest większe niż zakładany próg błędu, należy odrzucić hipotezę zerową i uznać, że różnica pomiędzy średnimi jest istotna statystycznie, a więc nie jest dziełem przypadku (przy określonym poziomie prawdopodobieństwa p=0,05 lub p=0,01) Wcale nie oznacza to jednak prawdziwości hipotezy alternatywnej! Należy wykluczyć wszystkie inne hipotezy, zgodnie z klasycznym postulatem Bacona. Wartość p nie jest wskaźnikiem wielkości zaistniałej zmiany (czyli zmiana, która zaszła przy p=0,031 nie musi być mniejsza niż przy p=0,0011, ale ryzyko popełnienia błędu w drugim przypadku jest mniejsze)… Istotność statystyczna nie opisuje wielkości i znaczenia zaistniałej zmiany, a jedynie określa sytuacje, w których należy odrzucić hipotezę zerową (głoszącą, iż zmiana nie zaistniała) przy arbitralnie przyjętym poziomie prawdopodobieństwa, że zaobserwowana różnica jest wynikiem przypadkowym.
!
Wnioski: W badaniach o charakterze społecznym czy psychologicznym, gdzie wyniki badań mają często postać jakościową (skal, odcieni znaczeniowych, opinii itp.) badanie znamienności statystycznej różnic nie jest polecane. Znamienność powstaje np. przy odpowiedniej wielkości próby – czyli każdy wynik można uznać za istotny, jeśli próba jest odpowiednio wielka… Mała zmiana i duża zmiana mogą być istotne statystycznie – ale mają zupełnie inne implikacje kliniczne… Podobnie dwie zmiany nieistotne statystycznie mogą być zupełnie różne. Porównywanie średnich niewiele mówi o sytuacji poszczególnego pacjenta… Koncepcja pomiaru wielkości efektu Przez pomiar odległości między średnimi – wartość standaryzowanej różnicy pomiędzy średnimi wynikami dla obu grup (czyli pytanie, o ile się zmieniło, a nie – czy się zmieniło); Jako stopień związku między zmiennymi – np. korelacja między wartością zmiennej niezależnej a indywidualnymi wynikami osób badanych. Zalety: Wielkość grupy nie ma wpływu na wynik. Można opisywać wielkość zmiany, wyrażając ją jako wielkość efektu. Można porównywać wiele badań, czyli dokonać metaanalizy. Można z pomocą tego badania dobrać wielkość potrzebnej grupy. Wada Wskaźniki wielkości efektu nie muszą oznaczać istotności klinicznej – czyli wyliczony wskaźnik ma się nijak do rzeczywistych efektów dla konkretnego pacjenta. Istotność kliniczna Zmiana powinna być definiowana w kontekście zachowania/funkcjonowania jednostki w społeczeństwie i mieć rzeczywiste znaczenie praktyczne. Zmiana jest oceniana dla konkretnej osoby, a nie jako średnia dla całej grupy. Odnosi się do ważności efektu interwencji – czy pacjent odczuwa zauważalną poprawę w swoim życiu. !22
I z tej samej książki: Jerzy Siuta: Możliwości pomiaru doznań bólowych na przykładzie kwestionariuszy bólu Ronalda Melzacka Werner Heisenberger: Czynność pomiaru wpływa na przedmiot, który jest temu pomiarowi poddany (1927) Nie sposób skorelować ze sobą wielu zmiennych „każda z każdą”, żeby nie uzyskać jakiejś znamienności – tyle że całkowicie absurdalnej. Podstawowym warunkiem poprawnego badania jest więc jasne postawienie celu i badanie tylko zaplanowanych zależności, a nie sprawdzanie wszystkiego metodą: a nuż coś wyjdzie? Jacob Cohen, 1990: Jeśli badania nie mają charakteru ściśle eksploracyjnego, powinno się zawsze badać mało zmiennych niezależnych (czynników), i jeszcze mniej zależnych. Nadmiarowość (redundancja) zmiennych prowadzi do konfuzji, a zatem do błędów we wnioskowaniu [Jerzy Brzeziński, Jerzy Siuta (red): Metodologiczne i statystyczne problemy psychologii. Zysk i s-ka, Poznań 2006]. I dalej ten sam autor: Proste jest lepsze: co dotyczy prezentacji, analizy i opisu danych. Dla prezentacji rozkładu lepszy jest histogram, albo diagram łodyga i liście niż podawanie średniej, odchylenia, kurtozy i skośności…. Nie ma żadnego usprawiedliwienia dla sytuacji, w której w danych są luki, przypadki odstające, związki nieliniowe… a my nic o nich nie wiemy, bo nie zrobiliśmy prostego wykresu rozrzutu, który pozwoliłby nam zobaczyć własne dane. Często więcej się dowiadujemy z tego, co widzimy, niż z tego, co obliczamy. Badania pedagogiczne Robert Wąsik: Przykładowa metodologia badań pedagogicznych (dostępne w sieci): Celem badań pedagogicznych jest poznanie naukowe istniejącej realnie, doświadczalnie rzeczywistości społecznej, opis jakiegoś zjawiska, instytucji lub jednostki. Oprócz funkcji poznawczej badania pedagogiczne spełniają także funkcje praktyczno-użyteczne. W. Dutkiewicz, Podstawy metodologii badań do pracy magisterskiej i licencjackiej z pedagogiki, Wydawnictwo Stachurski, Kielce 2001, s. 50. Metody badań w socjologii Dostępne w internecie materiały do zajęć, dr M. Molenda-Zdzech Rodzaje metod badawczych : ILOŚCIOWE: Sondaże prowadzone różnymi technikami (wywiad telefoniczny), eksperymenty Wnioskowanie na podstawie wyników podlega zasadom statystyki matematycznej, pozwala więc zazwyczaj nie tylko uzyskać pewne oszacowania liczbowe dla populacji generalnej, ale również określić błąd statystyczny, jakim obarczone są te oszacowania JAKOŚCIOWE: Wywiady (np. kwestionariuszowy , swobodny, telefoniczny, Dyskusje grupowe (tzw. Focusy) Obserwacje: zewnętrzna, uczestnicząca Analiza wtórna danych zastanych (dokumenty urzędowe, dane statystyczne) Metoda dokumentów osobistych !23
Cechy badań Ilościowych odpowiada na pytanie "ile” wyniki można generalizować Ustrukturyzowany kwestionariusz wpływ moderatora na grupę interpretacja wyników bardziej obiektywna Jakościowych odpowiadają na pytanie "co„ wyników nie można przenosić na populację Elastyczny kwestionariusz mniejszy wpływ badacza na przebieg badania bardziej subiektywny charakter interpretacji Próba badawcza: grupa respondentów uczestnicząca w badaniu ilościowym, reprezentująca określoną zbiorowość / populację badaną i dobrana w oparciu o ściśle sprecyzowane kryteria metodologiczne. Wyniki badania zarejestrowane w próbie stanowią podstawę do formułowania odpowiedzi na pytania badawcze postawione w danym projekcie. Próby reprezentatywne dla badanej zbiorowości dobrane w sposób losowy; pozwalające na wiarygodne generalizowanie uzyskanych wyników wobec całej badanej populacji; Próby niereprezentatywne (nielosowe) dobrane wedle innych kryteriów; pozwalające odnosić uzyskane wyniki jedynie do grupy respondentów poddanych badaniu i zakładać, z nieznanym prawdopodobieństwem słuszności, zbieżność tych rezultatów ze stanem rzeczywistym w całej badanej populacji. Najpopularniejszym typem próby nielosowej wykorzystywanym w badaniach marketingowych jest tzw. próba kwotowa. Próba reprezentatywna: grupa respondentów uczestnicząca w badaniu ilościowym, reprezentująca określoną zbiorowość / populację badaną i dobrana w sposób losowy spośród wszystkich członków tej zbiorowości – (Np. reprezentatywna próba dorosłych Polaków; reprezentatywna próba użytkowników jakiegoś produktu). Próba reprezentatywna konstruowana jest zgodnie ze statystycznymi prawidłami doboru respondentów. Pozwala to na wiarygodne i rzetelne generalizowanie wyników pomiaru wobec całej badanej populacji •Rezultaty uzyskane w próbie reprezentatywnej, z określonym prawdopodobieństwem i określoną dokładnością, traktowane są jako opis rzeczywistego stanu całej badanej zbiorowości. Źródło: http://www.pentor.pl/badania_slownik.xml Podwójnie ślepa próba (double-blind experiment or trial) - Jeśli ani badający, ani badany nie wie, kto z badanych dostaje lek (jest poddawany pewnej procedurze), a kto dostaje placebo (procedurę „pustą”). Jeśli nie wie tylko badany, mowa o próbie maskowanej. Jeśli i badany, i badający wiedzą, ale jest placebo – to jest to próba kontrolowana. I już zupełnie na koniec… „…spotkanie ludzkie nadal jest nieodzowne dla kształtowania osobowości… a zatem jest nieodzowne po to, ażeby uniwersytet mógł nadal wypełniać swe posłannictwo wychowawcze. […] W tym celu trzeba, aby sami nauczający nieustannie w !24
poszukiwaniu. Kto sam nie jest już zdolny do poszukiwań, a naucza młodzież, podobny jest do kogoś, kto pragnienie jej zaspokoić chce czerpiąc wodę z bagna, zamiast ze źródła. Jednocześnie wymaga się, ażeby nauczający zachowywali stale postawę gotowości służenia: poznanie nie zostało im dane po to, by je przechowywali jako swoją wyłączną własność lub jako środek zdobywania osobistego prestiżu, ale po to, by się nim dzielili i dopuszczali do niego innych; kto przekazując takie dobro duchowe jak wiedza, widzi, że nie ulega ono pomniejszeniu ani nie wyczerpuje się, lecz pomnaża i nabiera coraz większej prostoty i jasności, co jest znakiem prawdy, ten doświadcza głębokiej radości.” [JPII Przemówienie do świata uniwersyteckiego, Bolonia, 18.04.1982] Metodologia – wykład 4: Pomiary, błędy pomiarów Każdy pomiar, bez względu jak uważnie zostanie wykonany, obarczony jest pewnym związanym z nim błędem; nikt nie jest w stanie dokładnie zmierzyć prawdziwej wartości mierzonej wielkości. Dokładność metody pomiaru: stopień zgodności wartości rzeczywistej ze średnią arytmetyczną wyników uzyskanych dla oznaczanej wielkości. Im dokładniejsza metoda pomiaru, tym uzyskiwane wyniki są bliższe wartości prawdziwej. W serii pomiarów o dużej dokładności tej samej wielkości fizycznej lub chemicznej większość wyników będzie zbliżona do wartości prawdziwej, a wyniki obarczone błędem przypadkowym będą rozrzucone po obu stronach wartości prawdziwej. Precyzja metody pomiaru: stopień zgodności między wynikami uzyskanymi w określonych warunkach z wielokrotnych pomiarów tej samej wielkości. Precyzja pomiaru jest miarą rzetelności przeprowadzenia doświadczenia, lub określa, jak powtarzalny jest ten eksperyment. Zatem precyzja mówi o jakości działania przyrządu Na rysunku widać, że pistolet był precyzyjny, gdyż strzały (wyniki pomiarów) są położone blisko siebie. Jednak ten pistolet (przyrząd) nie daje wyników dokładnych, gdyż strzały (wyniki) nie koncentrują się w środku tarczy. Dokładność metody pomiaru jest parametrem niezależnym od jej precyzji. Metoda może być mało precyzyjna, gdy uzyskane wyniki mają duży rozrzut, ale mimo to dokładna, jeżeli średnia tych wyników odpowiada wartości prawdziwej. Z kolei, gdy rozrzut wyników jest nieduży, ale ich średnia jest odległa od wartości prawdziwej, metoda jest precyzyjna, ale niedokładna. Precyzja wyników otrzymanych przez tego samego analityka przy użyciu tego samego sprzętu pomiarowego to powtarzalność wyników, podczas gdy precyzja wyników otrzymanych przez różnych analityków w odmiennych warunkach otoczenia to odtwarzalność wyników. Wielkość popełnianego błędu zależy od precyzji zastosowanego przyrządu, prawidłowej jego kalibracji, oraz umiejętnego posługiwania się przyrządem pomiarowym. Błąd ten jest jednak różny od tzw. "błędu grubego". Grube błędy, lub inaczej wyniki odbiegające, pojawiają się w wyniku złego użycia lub nieprawidłowego działania przyrządu pomiarowego, oraz takich przyczyn jak błędne odczyty wartości pomiaru lub błędy zapisu wyniku. Stąd podanie samej średniej pomiarów nie daje pojęcia o rzeczywistej wartości. Uzupełnieniem musi być wartość odchylenia standardowego. Nawet jednak takie określenie jest miarodajne tylko dla rozkładu zbliżonego do normalnego, czyli dla rozkładu symetrycznego. !25
Bardzo ogólnie mówiąc, „dobry” system pomiarowy to taki, przy którym kilkanaście kolejnych pomiarów tego samego przedmiotu daje wyniki identyczne lub bardzo do siebie zbliżone Mierząc kilka razy to samo uzyskujemy różne wyniki. Kilku mierzących uzyskuje różne wyniki mierząc to samo A zatem dobrze jest znać wielkość błędu związanego z pomiarem… Bo może się okazać, że uzyskana zmiana wyniku mieści się w granicach błędu metody… Błędy systemu pomiarowego można opisywać w pięciu kategoriach: Dokładność, powtarzalność, odtwarzalność, stabilność, liniowość Dokładność jest to odchylenie wartości średniej z pomiarów od faktycznej wielkości mierzonej właściwości. Powtarzalność to zmienność wyników pomiarów uzyskanych przy mierzeniu przez jednego operatora jednej części kilkanaście razy. Odtwarzalność jest to zmienność pomiędzy wartościami średnimi z pomiarów dokonywanych przez różnych operatorów, podczas mierzenia tym samym przyrządem tych samych części. Stabilność jest to całkowita zmienność, otrzymywana podczas dokonywania pomiarów danej właściwości przez dłuższy czas Liniowość jest to zmienność pomiaru określana w odniesieniu do wielkości pomiaru Przymierzam się do pisania pracy - czyli stawiam sobie cel. Z celu pracy powinno dać się utworzyć pytanie badawcze. Postawienie jasnego celu badań umożliwi dobór narzędzi (czyli określenie metodyki = zbioru metod, jakie zostaną zastosowane), określenie populacji, na jakiej zostaną przeprowadzone badania, wyznaczenie sposobu zbierania danych, wreszcie sformułowanie hipotezy i przeprowadzenie odpowiedniego postępowania statystycznego w celu weryfikacji postawionej hipotezy. Przykład: chcę sprawdzić, która z metod fizykalnych lepiej działa przeciwbólowo u chorych z chorobą zwyrodnieniową stawów kolanowych. Narzędzia: pomiar bólu. Obiektywny nie jest możliwy (ból jest zjawiskiem subiektywnym), a zatem muszę polegać na określeniu poziomu bólu przez chorego (np. skala VAS). Niemniej, mogę uzupełnić badanie o jakiś pomiar obiektywny. Ból zwykle towarzyszy stanowi zapalnemu stawu, którego wykładnikami mogą być ucieplenie i obrzęk stawu. Mierząc różnicę temperatury skóry np. na udzie i przyśrodkowo na kolanie mogę uzyskać informację, czy ta różnica występuje – i czy mogę podejrzewać, że staw jest objęty procesem zapalnym. Mogę zmierzyć obwód stawu, porównując wartość dla obu kończyn Uzupełniam w ten sposób pracę o dane bardziej wymierne. Populacja: chorzy cierpiący z powodu choroby zwyrodnieniowej stawów kolanowych. Kryterium włączenia: rozpoznanie choroby zwyrodnieniowej, pierwotnej lub wtórnej (do rozważenia, czy konkretne przyczyny choroby wtórnej nie będą zakłócały wyniku pomiaru, niemniej, można to przeanalizować osobno). Kryteria wyłączenia; inne rozpoznania, np. choroby o podłożu zapalnym. Stan po endoprotezowaniu. Włączanie do grupy badanej: losowe, np. wszyscy chorzy zgłaszający się kolejno do gabinetu ze skierowaniem na zabiegi, z powodu rozpoznanej choroby zwyrodnieniowej stawów kolanowych. Nie dokonuję żadnej wstępnej selekcji, włączam wszystkich !26
chorych, albo zakładam dodatkowe kryteria włączenia; np. wiek w pewnym przedziale, osoby tylko płci żeńskiej itp. Zależy to od postawionego celu. Domyślnie chciałabym posiąść wiedzę jak najszerszą – czyli chciałabym wiedzieć, czy dla dowolnego chorego uzyskany wynik będzie prawdziwy. Ze względu jednak na ograniczenia czasowe i organizacyjne mogę objąć badaniem określoną próbkę, część populacji. Im bardziej struktura tej próbki odzwierciedla strukturę populacji, dla której chcę orzekać o słuszności moich założeń, tym bardziej wiarygodne będą wyniki. Inaczej mówiąc, skoro na chorobę zwyrodnieniową stawów kolanowych chorują najczęściej chorzy w wieku…. lat , głównie kobiety, a ja wykonam badania na grupie młodych mężczyzn trenujących wioślarstwo, to moje wyniki będą być może prawdziwe dla tej grupy badanej, ale nie dadzą się przenieść na populację. Zbieranie danych – pomiar i ankieta Muszę zaplanować, jakie pomiary będą wykonywane u każdego chorego, w jakich punktach czasowych (z jakim marginesem błędu, np. po zakończeniu serii zabiegów oznacza następnego dnia? Po tygodniu? Po miesiącu?). Muszę opracować autorską ankietę, wzorując się na badaniach już przeprowadzonych, lub posłużyć się jakimś gotowym narzędziem, Jeśli takie narzędzie jest dostępne i zostało wystandaryzowane, to wyniki uzyskane z jego pomocą będą bardziej wiarygodne. Wreszcie muszę utworzyć arkusz bazy danych, do którego uzyskane wyniki będą wprowadzane, możliwie na bieżąco, bo przy dużej ilości danych łatwo o błędy. Pomiar Sprawdzić powtarzalność, precyzję, dokładność np. miary, wagi czy termometru. Można wyliczyć tzw. współczynnik zmienności. Matematycznie jest to odchylenie standardowe podzielone przez średnią arytmetyczną z próby. Przykład: Kontrola w piekarni wykazała, iż średnia waga bochenka chleba to 500 gramów, zaś odchylenie standardowe to 2,5 grama. Średnia waga ciastka z kremem to 115 gramów, zaś odchylenie 2,4 grama. Vchleba = 2,5/500 = 0,5%, V{ciastka} = 2,4/115 = 2,087% Pomimo, iż obie badane populacje charakteryzowały się podobnym odchyleniem, to współczynnik zmienności ciastek z kremem jest ponad 4-krotnie wyższym niż chleba. Kwestionariusz ankiety / kwestionariusz wywiadu Pierwszy jest przekazywany respondentowi do uzupełnienia; drugi służy ankieterowi jako plan zadawanych pytań i uzupełniany jest przez niego. Zależnie od zaleceń metodologicznych możliwa jest większa lub mniejsza ingerencja ankietera w treść prezentowanych pytań. Zbieranie danych metodą ankiety Ankieta to zbiór pytań mających dostarczyć informacji na interesujący badacza temat. Jest zetknięciem badacza z subiektywnymi na ogół poglądami badanego. Ankieter potrzebuje danych obiektywnych – ale otrzymuje materiał ściśle subiektywny! Warunkiem skuteczności każdej ankiety jest poufność, prostota pytań, mała ich liczba. Zasady Ankieta nie może nudzić i nie może być zbyt długa. Ani pytania, ani proponowane odpowiedzi nie mogą być skomplikowane. !27
Pytania na T/N lub kafeteria są wygodne, ale zamykają dostęp do innych, nie przewidzianych informacji. Nie należy stawiać pytań sugerujących odpowiedź. Ankieta powinna zawierać elementy jednorodne, choć nie jednakowe. Zestaw pytań powinien pozwalać na samokontrolę danych. Ankieta powinna zaciekawić badanego… Wbrew pozorom…najmniej miarodajne są liczby pozyskane z ankiety – bo są podawane z głowy… Najlepsze wyniki dają ankiety ukierunkowane na aspekt socjalny – bo dominujący czynnik osobowości dochodzi w nich do głosu… Ostatecznie uzyskany materiał wcale nie jest tak losowy, jak się zakładało – bo wypełniają ankietę ci, którzy mają motywację, czyli albo są pozytywnie, albo bardzo negatywnie nastawieni… Pytanie filtrujące rodzaj pytania kwestionariuszowego umieszczanego jako poprzedzające w stosunku do następnego. Najczęściej tę nazwę stosuje się wobec pytań stawianych na samym początku wywiadu i mających ustalić, czy respondent spełnia wymogi określone przez twórcę badania. Na przykład Czy był Pan kuracjuszem w uzdrowisku? Jeśli nie, proszę przejść do pytania nr… Czy jest Pani aktywna zawodowo? Jeśli tak, proszę odpowiedzieć na pytanie… Pytanie otwarte to rodzaj pytania kwestionariuszowego, na które respondent może udzielić swobodnej odpowiedzi. Na przykład: jaki sport Pan uprawia? Pytań otwartych używa się zwłaszcza wtedy, gdy: autorowi badania zależy na analizie całego spektrum postaw i opinii, pytanie dotyczy słabo rozpoznanego zjawiska. Pytanie zamknięte to takie, w którym pytający stara się ograniczyć liczbę możliwych odpowiedzi. Na przykład: uprawia Pan pływanie czy jazdę na rowerze? Takie pytania podają skończoną liczbę precyzyjnie sformułowanych wypowiedzi do wyboru. Wybór może mieć charakter wyboru jednokrotnego lub wielokrotnego. Powinny jednak zostawiać miejsce na odpowiedź: inne – jakie?....... Uwaga na błąd fałszywego dylematu! Czy Pan przestał już brać łapówki? Czy nadal Pan bierze te leki? Metryczka jest to końcowa część kwestionariusza. Zawiera pytania odnoszące się do przynależności demograficzno-społecznych badanego, które winny być skorelowane z tematem, celem badania, przyjętymi założeniami teoretycznymi oraz uprzednio zadanymi pytaniami. Najczęściej w metryczce znajdują się pytania o płeć, rok urodzenia, formalne wykształcenie i dochody. Należy unikać pytań o dane niepotrzebne, o dane wrażliwe, o dane, które badany może uważać za zbyt intymne. Wskazówki do konstruowania kwestionariusza: układ pytań musi tworzyć logiczny ciąg (bloki tematyczne), przechodzimy od pytań ogólnych do szczegółowych, trudne pytania umieszczamy w środku kwestionariusza; te wymagające mniej zastanowienia na początku i na końcu; pytania nie mogą się powtarzać (za wyjątkiem tych, które są !28
pytaniami kontrolnymi); pytania muszą wynikać z podjętej problematyki badawczej i zasad budowy kwestionariusza, pytania powinny być przystępne i zrozumiałe dla każdego respondenta, znaczenie pytania musi być takie samo dla pytającego jak i respondenta, każde pytanie może się odnosić tylko do jednego zagadnienia, pytania muszą być neutralne – nie mogą sugerować odpowiedzi, pytania muszą być jednoznaczne, pytania muszą dawać możliwość udzielenia wyczerpującej odpowiedzi nie należy zamieszczać pytań, które mogą stwarzać możliwość do udzielenia nieszczerych odpowiedzi, najważniejsze przy opracowaniu kwestionariusza jest umieszczenie dokładnej instrukcji udzielania odpowiedzi Najczęstsze błędy przy konstruowaniu kwestionariusza fałszywe założenie znawstwa - pytania są formułowane w postaci niezrozumiałej ze względu na pojęcia, które według osoby tworzącej je są powszechnie znane. pytania wzajemnie sprzeczne pytania sugerujące - pytanie sugerujące respondentowi odpowiedź zgodnie z zamierzoną lub niezamierzona sugestią osoby projektującej kwestionariusz. Przykład:Czy jest Pan/Pani przeciwko nadaniu większych uprawnień przydentowi RP? pytania niejednoznaczne niedostosowane np. kulturowo lub językowe POMIARY Wyróżnia się 1) zmienne pozyskane z pomiarów, mające charakter liczbowy (mianowane lub nie) – należą do skali interwałowej (obwody, masa ciała, zakresy ruchów). 2) Zmienne pozyskane z pomiarów, ale mające charakter skali porządkowej – siła mięsni w skali Lovetta. 3) Zmienne wyrażane w skali nominalnej – wszelkie klasy, kategorie, skale punktowe, rodzaje bólu. Dane pozyskiwane metodą pomiaru Skala interwałowa zwykle ma jednostkę (metr, kg, kąt). Może mieć zero absolutne (jak skala Kelvina, i wtedy jest skalą ilorazową) lub nie (jak skala Celsjusza). Pomiary można uporządkować w szereg, malejący lub rosnący. Odległości między pomiarami (interwały) są takie same na całej skali. Np.: wzrost, waga, obwód. Można uszeregować osoby badane wg uzyskanych wyników. Różnica wzrostu 2 cm zawsze oznacza to samo. Spadek masy ciała o 5 kg zawsze oznacza to samo. Przyrost obwodu w talii o 3 cm zawsze oznacza to samo. Dla takich zmiennych ma sens liczenie średniej z odchyleniem standardowym Średnia jest tzw. miarą centralną zmiennej - czyli wyznacza, wokół jakiej wartości grupują się wyniki (chociaż może wcale nie wystąpić bezpośrednio: nie ma punktu o takiej wartości).. Odchylenie standardowe mówi, jak szeroko wokół tej wartości centralnej rozkładają się pomiary dla danej grupy
!
!29
:
: Dla zmiennych interwałowych można prowadzić analizę statystyczną za pomocą testów parametrycznych, ponieważ testy te opierają się właśnie na parametrze, jakim jest średnia. Na przykład: test t-Studenta do badania różnic pomiędzy grupami, korelacja Pearsona. Wartość średniej: Podaje się z taką samą dokładnością, z jaką następował pomiar. Nie ma sensu podawanie obwodu z dokładnością do dwóch miejsc po przecinku, skoro mierzyło się przymiarem krawieckim z dokładnością do 1 cm. Ale i odwrotnie – nie powinno się zmniejszać dokładności. We wszystkich rozkładach normalnych funkcja gęstości jest symetryczna względem wartości średniej rozkładu. Około 68% pola pod wykresem krzywej znajduje się w odległości jednego odchylenia standardowego od średniej, około 95,5% w odległości dwóch odchyleń standardowych i około 99,7% w odległości trzech (reguła trzech sigm). Intuicyjnie rzecz ujmując, odchylenie standardowe mówi, jak szeroko wartości jakiejś wielkości (takiej jak np. wiek, inflacja, kurs akcji itp.) są rozrzucone wokół jej średniej. Im mniejsza wartość odchylenia tym obserwacje są bardziej skupione wokół średniej. Odchylenie standardowe jest pierwiastkiem kwadratowym z wariancji. Pojęcie odchylenia zostało wprowadzone przez pioniera statystyki, Karla Pearsona w 1894 roku. Wariancja to w statystyce klasyczna miara zmienności. Intuicyjnie utożsamiana ze zróżnicowaniem zbiorowości; jest średnią arytmetyczną kwadratów odchyleń (różnic) poszczególnych wartości cechy od wartości oczekiwanej. Porównanie gęstości rozkładu normalnego dla różnych wartości parametrów. Większe wartości na wykresie odpowiadają większemu prawdopodobieństwu znalezienia w tym miejscu obserwacji. Czerwona, zielona i niebieska krzywa odpowiadają tej samej wartości oczekiwanej (średniej), lecz różnym odchyleniom standardowym w populacji. Czerwona odpowiada najmniejszemu, a niebieska największemu odchyleniu standardowemu. Im wyższe odchylenie standardowe, tym mniej obserwacji skupia się wokół średniej a tym więcej jest ich daleko od niej. Ważną własnością średniej jest jej podatność na tzw. „efekt dźwigni”, czyli wpływ pojedynczego, odbiegającego pomiaru na średnią, mimo że nie zmienia się reszta pomiarów. Przykładem jest średnia krajowa zarobków… Ważnym elementem "opisu" zmiennej jest kształt jej rozkładu, który informuje o liczności występowania wartości tej zmiennej w różnych obszarach jej zmienności. !30
Najczęściej badacz jest zainteresowany tym, jak dobrze analizowany rozkład może być przybliżony rozkładem normalnym. Proste statystyki opisowe mogą dostarczyć pewnych informacji mających znaczenie dla tej kwestii. Na przykład jeśli skośność (miara asymetrii rozkładu) jest wyraźnie różna od 0, wówczas badany rozkład jest asymetryczny , podczas gdy rozkład normalny musi być dokładnie symetryczny. Jeśli śledziliby Państwo wyniki badania stężenia białka CRP dla pewnej populacji To otrzymają Państwo np. szereg: 0,0,0,0,0,0,0,3,14,21,22 Czy z takiego szeregu ma sens liczenie średniej? 5,5 czy 15? Jeżeli kurtoza (miara "smukłości" rozkładu) jest wyraźnie różna od zera, wówczas rozkład jest albo bardziej spłaszczony niż rozkład normalny, albo bardziej wysmukły, kurtoza rozkładu normalnego wynosi bowiem dokładnie 0. Kurioza jest to miara, która mówi o tym jak bardzo rozrzut danych wokół średniej jest zbliżony do rozrzutu tych danych w rozkładzie normalnym. Im wartość kurtozy jest większa od zera, tym badany rozkład jest bardziej smukły niż rozkład normalny a im wartość kurtozy jest mniejsza od zera, tym badany rozkład jest bardziej spłaszczony niż rozkład normalny. Czyli – wszystkie pomiary są albo bardzo blisko siebie (krzywa podejrzanie smukła) albo bardzo daleko od siebie (krzywa podejrzanie szeroka)… Na przykład: pomiar liczby rąk w populacji studentów poznańskich uczelni… Nie mówiąc już o pomiarze liczby głów… W takich sytuacjach … Średnia nie jest najlepszą ilustracją rozrzutu zmiennej i nie należy jej stosować. Lepszym opisem będą inne miary tendencji centralnej: mediana, lub wartość modalna (dominanta). Może też być tak, że nie widzę jednorodnego rozkładu Moja grupa badana składa się w istocie z podgrup – kategorii, dla których wyniki się różnią.. Muszę obejrzeć wyniki – i ew. podzielić grupę. Pomoże mi w tym wykres zmiennej – histogram. Czyli żeby wprowadzić kategorie, muszę się przyjrzeć danym, żeby ustalić, jak wygląda cała grupa badana. Pomaga mi w tym ogląd zmiennej w postaci histogramu. Wykres taki ułatwia ocenę normalności rozkładu empirycznego, ponieważ na histogram zostaje nałożona dopasowana krzywa gęstości rozkładu normalnego. Pozwala on także zbadać jakościowo różnorakie aspekty rozkładu. Rozkład może być na przykład dwumodalny (posiadać dwa maksima). Taka sytuacja może sugerować, że próbka nie jest jednorodna i być może jej elementy pochodzą z dwóch różnych populacji, z których każda w mniejszym lub większym stopniu może zostać scharakteryzowana za pomocą rozkładu normalnego. W takim przypadku, aby zrozumieć naturę badanej zmiennej, należy zastanowić się nad sposobem rozdzielenia obydwu próbek składowych Wydzielam kategorie - np. dzielę grupę ze względu na płeć, odnajduję klastery Mogę przejść od skali interwałowej do porządkowej Czyli zmniejszyć czułość, na rzecz większej jasności. !31
Np. nie badam zależności wydolności wprost od wieku, tylko wprowadzam kategorie: pytając, czy przed wiekiem pokwitania wydolność fizyczna jest inna niż po. Podobnie mogę podzielić grupę ze względu na masę ciała (zresztą najpierw przeliczając ją np. w postać BMI) i sprawdzić, czy sprawność fizyczna jest taka sama dla osób o prawidłowej masie ciała co dla osób z nadwagą. Jeśli wprowadziłam kategorie, albo zmienna ma rozkład klasterowy… Czyli dane grupują się nie wokół jednej, ale dwóch lub więcej wartości, nie liczy się średniej dla całej podgrupy, ale dla podgrup. Np. niczym dziwnym nie jest, że średni wzrost dla kobiet i mężczyzn będzie się różnił… Inne rodzaje średnich
!
Skala porządkowa Też może wynikać z pomiarów, lub z szacunkowej oceny jakiejś wielkości. Różni ją od skali interwałowej to, że zmienna nie przyjmuje dowolnej wartości z zakresu, a jedynie punkty ze skali. Zwykle taką postać mają wszelkie kwestionariusze, skala Lovetta, skala Agar. Skala VAS
!
0 ___________________________________________________ 10 (dokładnie 10 cm, badany zaznacza swoją odpowiedź, a ja mierzę linijka, ile to było cm)
!
Ale już w postaci takiej: 0 1 2 3 4 5 6 7 8 9 10 nie jest to skala interwałowa! Dla takich zmiennych stosowanie średniej jest nieuprawnione Ponieważ może nie być punktu o wartości, jaką wskaże średnia. Na skali VAS z zaznaczonymi wartościami nie może się pojawić wartość 5,4. W skalach zawierających liczby również nie ma miejsca na ułamki Skala Apgar Nie mogę przejść od skali porządkowej do interwałowej Np. jeśli w ankiecie umieściłam pytanie o przedział wiekowy, to nie odzyskam z takiej danej wieku dokładnego. Z pytania w ankiecie o sprawność (dobra – średnia – wysoka) nie uzyskam informacji szczegółowej o wydolności. W tej skali nie może się pojawić wartość 3,5 Chociaż mogą się pojawić liczby całkowite z zakresu 0-10. Wyliczona średnia, np. 6,8 nie da się odczytać ze skali – nie wiadomo, co miałaby znaczyć… Dla zmiennych o takim charakterze podaje się inne miary centralne i rozrzutu Najbardziej typowo - medianę i kwartyle, ewentualnie wartości min-max. Można podać wartość modalną.(moda lub determinanta) Można podać tylko zakres od-do Mediana Środkowy pomiar w posortowanym (malejąco lub rosnąco) szeregu pomiarów. Potocznie: jest wartością z szeregu pomiarowego, powyżej i poniżej której leży dokładnie połowa wyników. !32
Kłopot tylko, jeśli liczba wyników jest parzysta…Wtedy nie można jej wyznaczyć. Medianę można zastosować: Dla skali interwałowej Dla skali porządkowej Nie można jej stosować dla skali nominalnej. Mediana nie jest wrażliwa na „efekt dźwigni”, czyli pojedynczy pomiar odstający nie będzie miał wpływu na jej wartość. Ponadto, ma zawsze taki sam wymiar jak pomiary (jest jednym z nich) – nie przyjmuje wartości ułamkowych, jeśli pomiary ich nie mają. Dla skali nominalnej można jedynie wyznaczyć modę Czyli wartość pomiaru, który w danym zbiorze powtarza się najczęściej Np. większość kuracjuszy wskazała, że na co dzień „raczej rzadko” wykazują aktywność fizyczną… Rozkład zmiennej może być bimodalny lub polimodalny (tyle samo kuracjuszy wskazało „raczej rzadko” i „często”). Spróbujmy wskazać przykłady takich zmiennych… Zmienne interwałowe czy porządkowe? Dane z ankiety, odpowiedzi na pytanie o: wiek masę ciała liczbę przebytych ciąż ilość km, jakie pacjent przechodzi dziennie na spacerze ilość posiłków spożywaną w ciągu dnia liczbę odbytych sesji psychoterapeutycznych ilość rodzeństwa A zatem charakter zmiennych interwałowych będą miały niemal wyłącznie dane z pomiarów Wiek jest pomiarem liczby miesięcy lub lat Masa ciała jest pomiarem gramów lub kg Obwody, zakresy, odległości, masy są pomiarami…. Zmienne porządkowe To wszystkie, dla których nie można sobie wyobrazić wartości połówkowej: zwykle w języku przybierają one postać „liczba” – liczba rodzeństwa, przebytych ciąż, dzieci, ale także liczba skłonów (nie da się wykonać 2,5 skłonu…) A także zmienne ze skal – Lovetta, kwestionariuszy, skal bólu, nasilenia objawu, jakości życia… Zmienne nominalne (wyznaczają kategorie, żadna kategoria nie jest „lepsza” czy większa” od innych, nie da się ich zatem uszeregować rosnąco czy malejąco – i nie da się wyznaczyć średniej!) Płeć Miejsce zamieszkania Wykształcenie, zawód Rodzaje zabiegów Dla tego typu zmiennych podaje się jedynie liczebność poszczególnych kategorii Wykład 5-6 z metodologii: Baza danych i podstawowe testy Sposób uporządkowania danych, umożliwiający ich matematyczną (statystyczną) obróbkę !33
Używa się do tego zazwyczaj programów o charakterze arkuszy baz danych lub arkuszy kalkulacyjnych. Programy te pozwalają na porządkowanie, sortowanie, przeliczanie danych… Pierwszym arkuszem … jest legenda, czyli zapis pytań i wersji odpowiedzi, sposób kodowania, wszystkie uwagi. WYDAJE SIĘ NAM, że będziemy to pamiętać… (czy 0 w kolumnie płeć oznaczało chłopca czy dziewczynkę?) Rodzaje danych: Liczbowe, surowe i przetworzone. O szczególnym formacie, np. daty. Tekstowe. Uwaga przy wprowadzaniu, błędny format spowoduje błędy w zapisie i interpretacji danych! Wzór bazy danych czyli podstawowa wersja zapisu, przydatna w przygotowaniu pracy magisterskiej… Rodzaje zmiennych Zmienna, będąca zapisem wyników pomiaru, którego wartość może przyjmować dowolną wartość z pewnego zakresu. Zmienna, będąca zapisem wyników pomiaru, którego wartość może przyjmować określone (nie dowolne) wartości z pewnego zakresu. Zmienna, przyjmująca tylko kilka wartości –kategorie ustalone arbitralnie. Zmienne tekstowe. Parametry statystyczne to wielkości liczbowe, które służą do opisu struktury zbiorowości statystycznej w sposób systematyczny. Miary pozycyjne modalna kwantyle: –kwartyl pierwszy –mediana (kwartyl drugi) –kwartyl trzeci –decyle –centyle Miary przeciętne charakteryzują średni lub typowy poziom wartości cechy, wokół których skupiają się wszystkie pozostałe wartości analizowanej cechy średnia arytmetyczna średnia harmoniczna średnia geometryczna modalna Średnią arytmetyczną - definiuje się jako sumę wartości cechy mierzalnej podzieloną przez liczbę jednostek skończonej zbiorowości statystycznej. Średnią harmoniczną - stosuje się wtedy, gdy wartości cechy są podane w przeliczeniu na stałą jednostkę innej zmiennej, czyli w postaci wskaźników natężenia, wagi natomiast w jednostkach liczników tych cech, np. prędkość pojazdu w km/h. Średnią geometryczną - stosuje się w badaniach średniego tempa zmian zjawisk, a więc gdy zjawiska są ujmowane dynamicznie. Miary zmienności (rozproszenia, dyspersji) !34
Rozstęp: różnica pomiędzy wartością maksymalną, a minimalną cechy - jest miarą charakteryzującą empiryczny obszar zmienności badanej cechy, nie daje on jednak informacji o zróżnicowaniu poszczególnych wartości cechy w zbiorowości. Skala interwałowa Pomiary można uporządkować, rosnąco lub malejąco. Odległość między pomiarami to jednostka, określona w sposób obiektywny. Przykłady – odległości, wzrost, obwody (jednostka-metr i pochodne), zakres ruchu (kąt), temperatura (stopień), prędkość (odległość/czas), przyśpieszenie (przyrost prędkości/czas). Dane dla zmiennej interwałowej w bazie: mają po prostu format liczb. Sprawdza się poprawność wprowadzenia przez sortowanie, ew. obliczenie min-max. Lepszym sposobem „obejrzenia” danych jest wykreślenie histogramu, lepiej jeszcze z wyliczeniem normalności rozkładu. W programie Excel są dostępne dwie funkcje umożliwiające obliczanie rozkładu normalnego: ROZKŁAD.NORMALNY i ROZKŁAD.NORMALNY.S. Jeśli wpiszesz nazwę funkcji niepoprawnie (często spotykany błąd), nie otrzymasz żadnej odpowiedzi, albo uzyskasz odpowiedź niepoprawną. W sesji ćwiczeń użyjesz funkcji ROZKŁAD.NORMALNY.S, która służy do obliczania prawdopodobieństwa związanego ze standardowym rozkładem normalnym. Krzywa standardowego rozkładu normalnego jest rozłożona symetrycznie względem punktu 0 (średniej). Całkowity obszar poniżej krzywej ma wartość 1. Rozkład prawdopodobieństwa jest zgodny z wartością odchylenia standardowego (1) dla standardowego rozkładu normalnego. Oznacza to, że około 95% najbardziej prawdopodobnych wartości należy do przedziału od -2 do 2. Formuła powinna mieć postać =ROZKŁAD.NORMALNY.S(z), jeśli chcesz obliczyć prawdopodobieństwo wartości leżących na lewo od wartości z na krzywej. Funkcji tej możesz używać zamiast tabeli prawdopodobieństw standardowego rozkładu normalnego. W programie Excel istnieje wiele funkcji o podobnych nazwach i zbliżonym przeznaczeniu. Możliwe, że używasz funkcji nieco odmiennej od zamierzonej. Aby upewnić się, że wybrana funkcja jest właściwa: Sprawdź przeznaczenie każdej funkcji w oknie dialogowym Wstawianie funkcji i użyj łącza do tematów Pomocy.
!
Dla zmiennych interwałowych ma sens liczenie średniej z odchyleniem standardowym i analiza statystyczna za pomocą testów parametrycznych, ponieważ testy te opierają się właśnie na parametrze, jakim jest średnia. Na przykład: test t-Studenta do badania różnic pomiędzy grupami, korelacja Pearsona. Test t-Studenta Test t jest najbardziej powszechnie stosowaną metodą oceny różnic między średnimi w dwóch grupach. Można go na przykład użyć do sprawdzenia różnicy w teście przeprowadzanym na grupie pacjentów poddanych działaniu jakiegoś leku w stosunku do grupy otrzymujących placebo. Teoretycznie test t może być stosowany także w przypadku bardzo małych prób (np. o liczności 10, zaś niektórzy badacze twierdzą, że nawet w mniej licznych); jedynym warunkiem jest normalność rozkładu zmiennych oraz brak istotnych różnic między wariancjami. Jak zostało to wspomniane wcześniej założenie o normalności można sprawdzić przez analizę rozkładu danych (przy pomocy histogramów) lub przy pomocy testu normalności. !35
Podawany w wynikach testu t poziom p reprezentuje prawdopodobieństwo błędu związanego z przyjęciem hipotezy o istnieniu różnic między średnimi. Ujmując to językiem bardziej technicznym jest to prawdopodobieństwo popełnienia błędu polegającego na odrzuceniu hipotezy o braku różnicy między średnimi w dwóch badanych kategoriach obserwacji należących do populacji generalnej (reprezentowanych przez badane grupy) w sytuacji, gdy stan faktyczny w populacji jest taki, iż hipoteza ta jest prawdziwa. Niektórzy badacze uważają, że jeśli znak różnicy średnich jest zgodny z przewidywaniami, to można do testowania używać jedynie połowy (jednego ogona) rozkładu prawdopodobieństwa i dzielić podawany poziom p (prawdopodobieństwo wyznaczone przez obydwa "ogony" rozkładu) przez dwa. Inni badacze uważają takie postępowanie za błędne i zalecają używać dwustronnego obszaru krytycznego. Jak stwierdzić, czy rezultat jest rzeczywiście istotny? Decyzja o tym, jaki poziom istotności skłonni jesteśmy uznać za rzeczywiście istotny, jest zawsze podejmowana w sposób arbitralny. Oznacza to, że wybór poziomu istotności, powyżej którego rezultat będzie odrzucany jako nieistotny, jest wyborem umownym. W praktyce oznacza to, że ostateczna decyzja w tym względzie zależy od wielu czynników, od tego, czy wynik był przewidziany a priori, czy został uzyskany post hoc (po fakcie) w wyniku wielu analiz i porównań przeprowadzonych na określonym zestawie danych, od siły nagromadzonych świadectw, które go potwierdzają i od tradycji panującej w danej dziedzinie badań. •W wielu dziedzinach badań jako typową wartość graniczną poziomu istotności przyjmuje się p 0,05. Poniżej tej wartości rezultat oceniany jest jako statystycznie istotny. Pamiętać jednak należy, że wartość ta niesie w sobie dość dużą możliwość popełnienia błędu (5%). Wyniki istotne na poziomie p 0,01 uważa się powszechnie za statystycznie istotne, zaś wyniki istotne na poziomie p 0,005 lub p 0,001 nazywane bywają wysoce istotnymi. Pamiętajmy jednak, że tego typu klasyfikacje są niczym innym niż tylko umownymi konwencjami opartymi na doświadczeniu badawczym. Istotność statystyczna a liczba przeprowadzonych analiz Pamiętać trzeba o tym, że im więcej analiz przeprowadzimy na określonym zbiorze danych, tym większa liczba wyników ma szansę przekroczyć ustalony poziom istotności przez przypadek. Jeśli na przykład policzymy korelacje pomiędzy dziesięcioma zmiennymi (łącznie 45 współczynników korelacji), to możemy się spodziewać, że przez przypadek około dwa z nich (tzn. jeden na każde 20) będzie istotnych na poziomie p 0,05, nawet jeżeli wartości zmiennych były kompletnie losowe, a w populacji generalnej nie występują żadne korelacje między tymi zmiennymi. Niektóre procedury statystyczne, w których ma się do czynienia z wieloma porównaniami (i w związku z tym większą szansą wystąpienia takich błędów) przewidują na tę okoliczność specjalne poprawki lub korekty w zależności od liczby porównań. Większość podstawowych metod statystycznych (a w szczególności metody eksploracji danych) nie oferują jednak żadnych rozwiązań, które by pozwoliły uniknąć takich sytuacji. Okoliczność ta stawia przed badaczem szczególne wymagania co do ostrożności w ocenie niespodziewanych rezultatów badań. Wiele przykładów w tym podręczniku zawiera porady, jak postępować w takich wypadkach. Podręczniki statystyki są również zalecane jako źródło wiedzy w tym względzie. Dlaczego istotność relacji między zmiennymi zależy od wielkości próbki !36
Jeśli mamy do czynienia z małą liczbą obserwacji, wówczas istnieje też mała liczba wszystkich możliwych kombinacji różnych wartości poszczególnych zmiennych, a co za tym idzie, prawdopodobieństwo tego, że przez przypadek zdarzy się w pomiarze kombinacja wskazująca na silną zależność jest relatywnie duże. Rozważmy następujący przykład. Jeśli interesują nas dwie zmienne (Płeć - mężczyzna/kobieta i LBC - wysoka/niska) oraz mamy do dyspozycji tylko cztery obiekty w naszej próbce (dwie kobiety i dwóch mężczyzn), wówczas prawdopodobieństwo tego, że z powodów czysto losowych stwierdzimy 100% relację między zmiennymi wynosi 1/8. Szansa, iż obie kobiety mają niską LBC, a obydwaj mężczyźni wysoką LBC (lub na odwrót), równa jest jednej ósmej. Zastanówmy się teraz, jaka byłaby szansa w próbce liczącej 100 obiektów. Rachunek wskazuje, że szansa ta wynosi wówczas praktycznie zero. Przeanalizujmy bardziej ogólny przykład. Wyobraźmy sobie teoretyczną populację, w której średnia wartość LBC u mężczyzn i kobiet jest dokładnie taka sama. Jest oczywiste, że jeśli zaczniemy przeprowadzać sekwencyjnie eksperyment polegający na losowaniu par próbek o ustalonej wielkości (próbka mężczyzn i próbka kobiet) i obliczaniu różnicy średnich wartości LBC w każdej parze próbek, to większość wyników będzie bliska wartości 0. Jednakże od czasu do czasu wylosowana para próbek da wynik, który będzie się znacznie różnił od zera. Jak często można się spodziewać takiego wyniku? Otóż im mniejsza jest liczność próbki, tym częstość takiego błędnego rezultatu będzie większa, wskazując tym samym na istnienie zależności, która faktycznie w populacji generalnej nie występuje. Liczność a normalność W miarę wzrostu liczności próby (dla prób użytych do wyznaczenia rozkładu statystyki z próby) rozkład statystyki z próby upodabnia się coraz bardziej do rozkładu normalnego. Zauważmy, że dla n=30, rozkład jest "nieomal" doskonale zgodny z normalnym (jak widzimy dopasowany rozkład normalny jest bardzo bliski rozkładowi statystyki z próby). Twierdzenie to nosi nazwę "centralnego twierdzenia granicznego" (termin ten został użyty po raz pierwszy przez Pólya, 1920; "Zentraler Grenzwertsatz"). Kiedy zmienna prawdopodobnie ma rozkład normalny? Jeśli zmienna ma charakter interwałowy Jeśli badany parametr powszechnie występuje w populacji Jeśli grupa badana odzwierciedla strukturą całą populację Jeśli grupa badana jest liczna (>100) I to wcale nie jest ani częste, ani oczywiste… Jeśli podejrzewamy, że rozkład zmiennej jest różny od normalnego, należy używać testów nieparametrycznych. Ich użycie nie jest błędem również dla zmiennych o rozkładzie normalnym, choć uważa się, że te testy mają słabszą wymowę. Metody parametryczne i nieparametryczne Przetwarzanie danych o niższym poziomie pomiaru, pochodzących z małych prób oraz pozwalających na analizę zmiennych o nieznanym rozkładzie wymaga innych metod. Metody nieparametryczne były rozwijane szczególnie pod kątem ich zastosowania w przypadku nieznajomości parametrów rozkładu w populacji analizowanej zmiennej (stąd zresztą pochodzi nazwa nieparametryczne). !37
Używając bardziej fachowych terminów stosowanie metod nieparametrycznych nie polega na estymacji parametrów (takich jak średnia czy odchylenie standardowe) opisujących rozkład danej zmiennej w populacji. Z tego względu dla określenia tych metod bywa również często stosowana nazwa metody niezależne od parametrów lub niezależne od rozkładu. Statystyki opisowe W sytuacji gdy dane nie podlegają rozkładowi normalnemu, a pomiary są w najlepszym wypadku wyrażone na skali porządkowej, wówczas obliczanie standardowych statystyk opisowych (np. średniej, odchylenia standardowego) nie jest najlepszym sposobem zbiorczego przedstawienia danych. W przypadku badań psychometrycznych powszechnie wiadomo, że relatywna intensywność bodźca (np. odczuwany poziom jasności światła) często jest logarytmiczną funkcją rzeczywistej intensywności bodźca (jasność mierzona w luksach). W naszym przykładzie zwykła średnia wskaźnika (suma wskaźników podzielona przez liczbę bodźców) nie daje dobrej sumarycznej informacji o rzeczywistej przeciętnej intensywności bodźca. Podstawowe zadania obliczeniowe Testy różnic pomiędzy grupami (próby niezależne); Testy różnic pomiędzy zmiennymi (próby zależne); Testy współzależności pomiędzy zmiennymi. Różnice pomiędzy grupami niezależnymi Gdy mamy do czynienia z dwiema grupami, które chcemy porównać pod względem wartości średniej danej zmiennej, wtedy stosujemy zwykle test t dla prób niezależnych; nieparametryczną alternatywą dla tego testu jest test serii WaldaWolfowitza, test U Manna-Whitneya oraz test dla dwóch prób KołmogorowaSmirnowa. W przypadku wielu grup użyjemy analizy wariancji (patrz ANOVA/MANOVA) nieparametrycznymi odpowiednikami tej metody są test rangowy Kruskala-Wallisa oraz test mediany. Różnice pomiędzy grupami zależnymi Gdy chcemy porównać dwie zmienne zmierzone w tej samej próbie zazwyczaj stosujemy test t dla grup zależnych; np. przy porównaniu umiejętności matematycznych na początku i na końcu semestru). Nieparametrycznym odpowiednikiem tego testu jest test znaków oraz test kolejności par Wilcoxona. Jeśli brane pod uwagę zmienne są zmiennymi dychotomicznymi (tj. „zdał" lub „nie zdał") wówczas odpowiednim będzie test McNemary. W sytuacji gdy mamy do czynienia z więcej niż dwoma zmiennymi z tej samej próby, zazwyczaj zastosowalibyśmy metodę ANOVA dla powtarzanych pomiarów. Nieparametryczną alternatywą dla tej metody jest dwukierunkowa analiza wariancji Friedmana oraz test Q Cochrana (dla zmiennych dychotomicznych). Test Q Cochrana jest szczególnie użyteczny do mierzenia zmian częstości (proporcji) w czasie. Współzależności pomiędzy zmiennymi Aby wyrazić współzależność pomiędzy dwiema zmiennymi, obliczamy zazwyczaj współczynnik korelacji. Odpowiednikami nieparametrycznymi są: R Spearmana, Tau Kendalla oraz współczynnik gamma. W przypadku gdy brane pod uwagę zmienne są zmiennymi skategoryzowanymi (np. „zdany" lub „nie zdany" oraz „mężczyzna" lub „kobieta"), do oceny współzależności pomiędzy zmiennymi stosownymi statystykami są !38
test chi-kwadrat, współczynnik fi2 oraz dokładny test Fishera). Ponadto dostępny jest test jednoczesny dla współzależności pomiędzy wieloma przypadkami: współczynnik zgodności W Kendalla. Test ten jest często stosowany do wyrażania wewnętrznej zgodności ocen niezależnych sędziów, oceniających (porządkujących) ten sam bodziec. Duże liczności zbiorów danych a metody nieparametryczne Metody nieparametryczne są najbardziej odpowiednie w przypadku prób o małych licznościach. W przypadku dużych zbiorów danych (np. n > 100) stosowanie statystyk nieparametrycznych najczęściej nie ma uzasadnienia. Gdy liczność próby bardzo wzrasta, wówczas średnie prób podlegają rozkładowi normalnemu nawet w sytuacji, gdy odpowiednia zmienna w populacji nie posiada rozkładu normalnego lub nie jest wystarczająco dobrze zmierzona. Tak więc metody parametryczne, które są zwykle bardziej wrażliwe (tzn. charakteryzują się wyższą mocą statystyczną), w większości przypadków nadają się lepiej dla dużych prób. Jednakże testy istotności opisanych tutaj statystyk nieparametrycznych są oparte o teorie rozkładów asymptotycznych; tak więc często znaczące testy nie mogą zostać przeprowadzone ze względu na małą liczność próby. Aby uzyskać więcej informacji na temat mocy i efektywności testów, należy sięgnąć do opisów poszczególnych testów. Najczęściej używane testy statystyczne – pomoc programu Statistica Przed zastosowaniem jakiejkolwiek metody analizy danych należy zbadać czy spełnia ona wymogi zadania. Testy wymagają spełnienia założeń odnośnie skal pomiarowych, rozkładu i innych właściwości danych. Ważne jest, aby przed wykonaniem analizy rozumieć analizę, hipotezy, testy statystyczne i wnioski, które mogą być wyciągnięte w wyniku zastosowania danej metody. Opis jednej grupy lub zbiorowości danych Porównanie średniej w grupie względem średniej w populacji lub porównywanie dwóch prób niezależnych Porównywanie dwóch prób zależnych Porównywanie wielu grup niezależnych Porównywanie wielu grup zależnych Badanie związku między dwiema zmiennymi Co zwykle chcemy wiedzieć? Czy grupy różnią się przed rozpoczęciem pomiarów? (Jeśli tak, nie zostaje zachowany kanon jedynej różnicy Milla? I co wtedy?) Czy osiągnięty efekt różni się pomiędzy grupami? Czy dany czynnik miał wpływ na wynik – na pomiar / na efekt. Czyli potrzebujemy: Statystyki opisowe Testy do badania różnic między grupami Testy korelacji Testy opisujące wpływ jakiegoś czynnika na wystąpienie lub nie danego zjawiska (czy wiek miał wpływ na osiągnięcia? Czy pochodzenie społeczne warunkuje masę ciała?) Kolejność postępowania 1. Szczegółowy przegląd danych, czy nie ma błędów, braków. 2. Dane opisowe – liczebność grupy, średnie z odchyleniami, tabele wielodzielcze (np. ile kobiet, a ilu mężczyzn w danych przedziałach wiekowych). !39
3. Odpowiedź na zadane w celu pytanie, np. Czy jest różnica w osiągniętej poprawie? Czy coś wystąpiło częściej? Dobór testu do charakteru zmiennej, tzn. testy parametryczne lub nieparametryczne.
!
Dane pochodzące z ankiety Zmienne opisywane skalą porządkową – siła mięśni w skali Lovetta, nasilenie bólu, liczba posiłków, liczba ciąż, liczba tabletek… Takie dane nadal można uszeregować, rosnąco lub malejąco, ale nie ma sensu liczyć z nich średniej (3,5 ciąży…) Dla takich danych wyznaczyć można miarę centralną w postaci mediany i podać minmax lub kwartale. Można je badać testami nieparametrycznymi. Kwartyle (ćwiartki…) –Kwartyl pierwszy Q1 (dolny) dzieli uporządkowaną niemalejąco zbiorowość na dwie części w ten sposób, że 25% jednostek zbiorowości ma wartości zmiennej mniejsze lub równe kwartylowi pierwszemu Q1, a 75% równe lub większe od tego kwartyla. –Kwartyl drugi Q2 (mediana, wartość środkowa) dzieli uporządkowaną niemalejąco zbiorowość na dwie części w ten sposób, że połowa jednostek zbiorowości ma wartości zmiennej równe lub większe od mediany, stąd też mediana bywa nazywana wartością środkową. –Kwartyl trzeci Q3 (górny) dzieli uporządkowaną niemalejąco zbiorowość na dwie części w ten sposób, że 75% jednostek zbiorowości ma wartości zmiennej mniejsze lub równe kwartylowi trzeciemu Q3, a 25% równe lub większe od tego kwartyla. Ogólnie: Kwartyle (Q1,Q2,Q3) dzielą uporządkowany szereg na 4 równe części, decyle (Di, i = 1, 2, ..., 9) na 10 równych części a centyle (percentyle: Ci, i = 1, 2, ..., 99) na sto równych części. Drugi kwartyl, piąty decyl i pięćdziesiąty centyl są równe medianie. Miary te mogą być stosowane w skali interwałowej oraz porządkowej. Koduję taką informację w bazie danych w jednej kolumnie, jeśli ankietowany może wybrać jedną wartość / kategorię (np. ma podać liczbę posiłków dziennie) Lub w kilku kolumnach, jeśli możliwych jest kilka odpowiedzi (każda kolumna dla jednej wersji odpowiedzi, kodowanie zero-jedynkowe, 0-1). Istnienie związku między zmiennymi Związek statystyczny polega na tym, że określonym wartościom jednej zmiennej odpowiadają ściśle określone średnie wartości drugiej zmiennej. Można zatem obliczyć, jak się zmieni (średnio biorąc) wartość zmiennej zależnej Y w zależności od wartości zmiennej niezależnej X. Oczywiście najpierw na podstawie analizy merytorycznej należy logicznie uzasadnić występowanie związku, a dopiero potem przystąpić do określenia siły i kierunku zależności. Znane są bowiem w literaturze badania zależności (nawet istotnej statystycznie) między liczbą zajętych gniazd bocianich a liczbą urodzeń na danym obszarze czy między liczbą zarejestrowanych odbiorników TV a liczbą chorych umysłowo. Zwróćmy też uwagę, że liczbowe stwierdzenie występowania zależności nie zawsze oznacza występowanie związku przyczynowo-skutkowego między badanymi zmiennymi. Współwystępowanie dwóch zjawisk może również wynikać z bezpośredniego oddziaływania na nie jeszcze innego, trzeciego zjawiska. !40
Cyt za A. Stanisz – Analiza korelacji Dobrze jest zacząć od wykresu rozrzutu obu zmiennych Korelacja Czy badane zmienne są ze sobą powiązane (zmieniają się zależnie jedna od drugiej). Dla zmiennych parametrycznych liczy się współczynnik r Pearsona. Jest on współczynnikiem regresji liniowej, o wartościach od -1 (idealna korelacja ujemna: jeśli jedna zmienna rośnie, druga maleje), przez 0 (brak korelacji) do +1 (całkowita korelacja dodatnia, jak jedna zmienna rośnie, druga też rośnie). Siła korelacji W analizie statystycznej zwykle przyjmuje się następującą skalę: rXY = 0 zmienne nie są skorelowane 0
!
Seminarium 3 I teraz trochę na temat: co zrobić, jak już mamy wszystko policzone, czyli opis wyników badań i ich dyskusja. Opis wyników badań: suchy, bez zabarwienia emocjonalnego. Bez komentarza i odniesień do innych prac. Możliwie wyczerpujący, ale klarowny. Lepiej mniej danych, a dokładnie przeanalizowane, niż natłok danych, z których nie można wyciągnąć żadnych wniosków. Dyskusja Zestawienie własnych wyników z danymi z literatury. Bez odwoływania się do wartości (wyników, wyliczeń, średnich itp),. Tutaj jest miejsce na komentarze, wyciąganie wniosków, szukanie przyczyn, zależności i przede wszystkim na pokazanie, że te dane są zgodne z tym, co już wiadomo, a jeśli nie – to dlaczego. Metodologia badań, wykład 7: Przykładowa analiza danych Raport o stanie zdrowia poznaniaków z badania ankietowego w ramach projektu
HEPRO – Zbiór Narzędzi dla Profili Zdrowotnych Wybrane fragmenty raportu Żeby pokazać sposób opracowania danych; Żeby pokazać sposób prezentacji danych; Żeby pokazać użyte testy statystyczne. Grupa badana !41
N=1010 osób, 53,5% kobiet i 46,5% mężczyzn Średni wiek w latach 45,2 ± 17,8 Kategorie wieku: Do 24 18,3% 25-35 14,8% 36-44 14,1% 45-54 19,8% 55-64 15,7% 65 i więcej 17,3% Analiza Przedziały wiekowe Obliczenie wskaźników, np. BMI Statystyki opisowe, z zaokrągleniem % do pełnych liczb Wyniki w postaci histogramów Dla potrzeb analizy zmienności – test chi2, poziom istotności p<0,01, a różnice w rozkładach istotne merytorycznie. Dla zmiennych przedziałowych zastosowano test t-Studenta dla grup niezależnych w przypadku dwu grup, a test ANOVA dla kilku grup; w obu wypadkach przyjęto p<0,01. Chi-kwadrat Pearsona Statystyka Chi-kwadrat Pearsona jest podstawą najbardziej rozpowszechnionego testu istotności dla zmiennych jakościowych (skategoryzowanych). Miara ta oparta jest na możliwości obliczenia liczności oczekiwanych w tabeli dwudzielczej (to znaczy liczności, jakich oczekiwalibyśmy, gdyby nie istniała zależność między zmiennymi). Przypuśćmy, że pytamy 20 mężczyzn i 20 kobiet o upodobanie do jednej z dwóch gatunków wody mineralnej (gatunki A i B). Gdyby nie było żadnej zależności między upodobaniem odnośnie wody mineralnej a płcią, wówczas należałoby oczekiwać mniej więcej jednakowych liczności w preferencjach gatunku A i B dla obu płci. Test Chikwadrat staje się istotny w miarę wzrostu odstępstwa od tego oczekiwanego schematu (to znaczy w miarę jak liczności odpowiedzi dla mężczyzn i kobiet zaczynają się różnić). Jedynym założeniem leżącym u podstaw stosowania testu chi-kwadrat (poza losowością próbki) jest, aby liczności oczekiwane nie były bardzo małe. Powodem jest tu fakt, że chi-kwadrat testuje prawdopodobieństwa w poszczególnych komórkach i jeśli jakieś liczności będą np. poniżej 5, to oceny tych prawdopodobieństw mogą okazać się niewystarczająco precyzyjne. Dalsze informacje na ten temat znaleźć można w podręcznikach Everitta (1977), Haysa (1988) lub Kendalla i Stuarta (1979). Co to jest poziom istotności (poziom-p)? Statystyczną istotnością wyniku nazywamy miarę stopnia, do jakiego jest on prawdziwy (w sensie jego reprezentatywności dla całej badanej populacji). Bardziej technicznie rzecz biorąc, wartość poziomu-p stanowi malejący wskaźnik wiarygodności rezultatu (patrz Brownlee, 1960). Im wyższy poziom-p, tym mniej możemy być pewni, że relacja obserwowana w próbce jest wiarygodnym wskaźnikiem relacji pomiędzy mierzonymi wielkościami w całej interesującej nas populacji. Dokładnie rzecz biorąc, poziom-p odpowiada prawdopodobieństwu popełnienia błędu polegającego na tym, że przyjmujemy uzyskany rezultat jako prawdziwy, tj. reprezentatywny dla populacji. Na przykład poziom-p równy 0,05 (tzn. 1/20) oznacza, że istnieje 5% szansa, iż odkryta w !42
próbce relacja jest dziełem przypadku. Inaczej mówiąc, zakładając, że w populacji relacja taka nie zachodzi, a my będziemy powtarzać doświadczenie jedno po drugim w długim ciągu, to możemy oczekiwać, że w przybliżeniu w co dwudziestym eksperymencie zmierzona relacja będzie równie silna lub mocniejsza niż ta, która została zmierzona aktualnie. W przypadku postępowania z obserwacjami odstającymi niektórzy badacze używają podejścia ilościowego. Na przykład wykluczają obserwację, która wychodzi poza przedział obejmujący ±2 odchylenia standardowe (lub nawet ±1,5 odchylenia standardowego) od wartości średniej grupowej lub średniej obiektowej. W niektórych dziedzinach badań takie "czyszczenie" danych jest absolutnie niezbędne. Na przykład w badaniach z zakresu psychologii poznawczej dotyczących czasu reakcji, nawet jeśli prawie wszystkie wyniki leżą w przedziale 300-700 milisekund, to kilka "roztargnionych" "reakcji rzędu" 10-15 sekund może kompletnie rozmazać obraz całego pomiaru. Niestety, zdefiniowanie tego, co uznajemy za obserwację odstającą, jest sprawą subiektywną (i taką musi pozostać) i decyzję o identyfikacji odstających obserwacji musi badacz podejmować indywidualnie opierając się na swoim doświadczeniu oraz powszechnie "akceptowanej praktyce" w danej dziedzinie badań. Należy wszakże zaznaczyć, że w pewnych rzadkich przypadkach można zbadać częstość względną występowania obserwacji odstających w obrębie pewnej liczby grup lub obiektów doświadczalnych i analiza tego typu może dostarczyć interpretowalnych wyników. Obserwacje odstające mogą na przykład wskazywać na wystąpienie w danej próbie pewnego nietypowego zjawiska, jakościowo odmiennego od zazwyczaj obserwowanego lub oczekiwanego. W takim wypadku częstość względna występowania obserwacji odstających może dostarczyć dowodu na występowanie odstępstw od typowego dla większości przypadków przebiegu analizowanego procesu lub zjawiska w obrębie danej grupy.
!
Celem niniejszej pracy było: porównanie skuteczności leczenia zachowawczego, polegającego na odpowiednio zaplanowanej kinezyterapii poprzedzonej zabiegami krioterapii miejscowej bądź laseroterapii niskoenergetycznej u pacjentów z zdiagnozowaną chorobą zwyrodnieniową stawów kolanowych; określenie czasu utrzymania się poprawy; Grupa badana Badanie przeprowadzono w grupie 40 osób, między 40 a 60 rokiem życia, z czego 30 osób było płci żeńskiej a 10 płci męskiej. Średnia wieku wynosiła 50,5 lat ± 5,4. Pacjenci z rozpoznaniem zmian zwyrodnieniowych jednego stawu kolanowego. Osoby badane w trakcie terapii nie zażywały leków przeciwbólowych. Zabiegi Grupa A - poddano 10 zabiegom krioterapii miejscowej z użyciem dwutlenku węgla, po czym przystąpiono do odpowiednio zaplanowanej kinezyterapii indywidualnej. Grupa B - 10 zabiegów laseroterapii niskoenergetycznej punktowej, zastosowano pracę impulsową o długości fali 904nm, a następnie przystąpiono do wykonania ćwiczeń indywidualnych. !43
Każda z powyższych grup wykonywała te same ćwiczenia usprawniające. Badanie wykonano trzykrotnie: Ocena Badanie I - przed przystąpieniem do terapii; Badanie II - po zakończonej serii 10 zabiegów; Badanie III - po miesiącu od zakończonej serii; Badania poległy na wykonaniu: pomiaru długości kończyn pomiaru obwodu kończyn zakresu ruchomości stawu kolanowego testów czynnościowych określeniu bólu wg skali Laitinena Metodologia Pomiary obwodów wykonane zostały na 4 wysokościach (pomiar I - przez staw kolanowy, pomiar II - 7 cm , pomiar III- 20 cm powyżej podstawy rzepki oraz pomiar IV - 5 cm poniżej podstawy rzepki). Długość względna i bezwzględna kończyny została zmierzona za pomocą taśmy centymetrowej. Zakres ruchu zginania i prostowania stawu kolanowego został zmierzony za pomocą goniometru. Testy czynnościowe sprowadzały się do wchodzenia i schodzenia po schodach, a także wykonaniu klęku prostego. W trakcie wykonywania testów, pacjenci określali, czy występuje ból oraz po przebyciu ilu stopni się pojawia. Skala Laitinena przedstawiała skalę bólu, gdzie: 1 - bez bólu 2 - ból łagodny 3 - ból silny 4 - ból bardzo silny 5 - ból nie do zniesienia, Płeć osób badanych Powyższa rycina przedstawia płeć osób badanych. Zgodnie z definicją (a właściwie opisem epidemiologicznym) gonartrozy można zauważyć, że znaczącą liczbę osób stanowią kobiety. Czas trwania dolegliwości: Z ankiety wynika, iż wśród pacjentów znaczącą grupę stanowią osoby borykające się z chorobą zwyrodnieniową co najmniej 1-5 lat. Porównanie wyników uzyskanych przez pacjentów po 10 zabiegach laseroterapii i krioterapii połączonych z kinezyterapią z wynikami uzyskanymi przed leczeniem, pozwala na stwierdzenie, iż uzyskano istotną statystycznie (na poziomie p<0,05) poprawę w przeprowadzonych testach. Otrzymane wyniki opracowano statystycznie i przedstawiono graficznie. Analizę statystyczną przeprowadzono wykorzystując pakiet Statistica 9.0 oraz Microsoft Excel. Obwód stawu kolanowego –wykres. Opis wyniku: U wszystkich chorych w badaniu wstępnym stwierdzono obrzęk stawu kolanowego porównując wyniki z drugą kończyną dolną zdrową. W grupie A, u której zastosowano krioterapię+ ćwiczenia ruchowe zaobserwowano zmniejszenie obwodu stawu kolanowego średnio o 1,5 cm . Po miesiącu od zakończenia terapii zanotowano te same wyniki, co potwierdza skuteczność krioterapii. Natomiast w grupie B, bezpośrednio po zakończeniu leczenia !44
również zaobserwowano zmniejszenie obwodu stawu kolanowego średnio o 0,85 cm . Niestety po miesiącu od zakończenia serii zabiegowej badany parametr wrócił do swej początkowej wartości. Obwód mięśnia czworogłowego – wykres. W badaniu na poziomie II była także możliwość porównania z kończyną dolną zdrową, z której wynikało iż w kończynie dolnej objętej procesem chorobowym stwierdzono zanik mięśnia czworogłowego uda. Po zastosowanej terapii nastąpił przyrost mięśnia czworogłowego na poziomie II u wszystkich badanych. Jednak w grupie A zanotowano większy przyrost masy mięśniowej niż w grupie B. W grupie A na poziomie II zanotowano przyrost mięśnia średnio o 0,8 cm, natomiast w grupie B analogicznie o 0,62 cm. Po miesiącu od zakończonej serii u badanych korzystających z zabiegów krioterapii połączonej z kinezyterapią zanotowano te same wartości obwodu mięśnia czworogłowego uda co zaraz po skończonej serii zabiegowej. Natomiast u pacjentów, u których przeprowadzono zabiegi laseroterapii z ćwiczeniami usprawniającymi zanotowano takie same wartości jak przed rozpoczęciem serii zabiegowej. Istotność statystyczną badano testem t dla prób powiązanych. Wykazano znamienną różnicę dla pomiarów II i III (obwód stawu kolanowego i obwód 5cm poniżej podstawy rzepki) dla grupy A, i tylko pomiaru II dla grupy B. Skala Laitinena: Kwestionariusz oceny bólu wg Laitinena jest jedną z popularniejszych skal subiektywnych, obejmującą większość implikacji towarzyszących temu zjawisku. Istotne statystycznie zmniejszenie liczby punktów po zakończeniu kuracji, świadczy o pozytywnym wpływie leczenia zachowawczego zmian zwyrodnieniowych stawów kolanowych. Obniżenie bólu utrzymało się także po miesiącu od zakończonej serii w obu grupach badanych. Różnice te były statystycznie istotne. Dyskusja Wspomniany raport WHO, który określa chorobę zwyrodnieniową jako chorobę cywilizacyjną daje do zrozumienia, iż wzrasta zasięg choroby oraz jej społeczne znaczenie. W niedalekiej przyszłości może być ona czwartym co do częstości występowania powodem niepełnosprawności kobiet oraz ósmym u mężczyzn. Po zastosowaniu cyklu dziesięciu zabiegów krioterapii z użyciem CO2 połączonej z kinezyterapią indywidualną, w grupie liczącej 20 osób zanotowano pozytywna reakcję na zastosowaną terapią zachowawczą. U pacjentów dwa subiektywne wykładniki takie jak: odczucie bólu oraz obrzęk związany z chorobą uległy obniżeniu. Jednak stopień poprawy był różny. W grupie 20 osób, u których zastosowano krioterapię z kinezyterapią indywidualną zanotowano większy stopień poprawy w porównaniu z drugą 20 osobową grupą leczoną za pomocą laseroterapii niskoenergetycznej i kinezyterapii. S. Gachewicz i wsp. potwierdzają powyższe stwierdzenie. Wyniki uzyskane przez powyższych autorów wykazały: zmniejszenie obrzęku o średnio 1cm(poziom I), zwiększenie zakresu ruchu zgięcia o około 11o, poprawę komfortu chodu a także zmniejszenie dolegliwości bólowych[10]. Skrzek i Zagrobelny w badaniach nad wpływem krioterapii na układ ruchu u osób z rozpoznaną chorobą zwyrodnieniową stawu kolanowego zaobserwowali pozytywny wpływ na zmniejszenie dolegliwości bólowych. W niniejszej pracy obserwacje te potwierdzono. Dolegliwości bólowe występujące u osób borykających się z chorobą zwyrodnieniową stawów kolanowych uległy zmniejszeniu. Wyniki zostały przedstawione za pomocą skali Laitinena. Wydaje się zatem, że zaproponowany w !45
pracy zestaw zabiegów w postaci krioterapii miejscowej i kinezyterapii jest bardziej skuteczny w leczeniu zmian zwyrodnieniowych stawów kolanowych niż zastosowanie biostymulacji laserowej połączonej z kinezyterapią. Należałoby prowadzić dalsze badania w celu potwierdzenia najbardziej optymalnych form terapii tej dolegliwości, gdyż choroba zwyrodnieniowa stawów kolanowych zyskała miano choroby cywilizacyjnej. Wnioski (uwaga –sprawdzić, że odpowiadają postawionym celom pracy!) Pozytywne efekty terapii, polegające na obniżeniu dolegliwości bólowych, polepszeniu zakresu ruchomości stawu kolanowego zarówno czynnego jak i biernego i poprawie estetyki chodu zaobserwowano u wszystkich pacjentów. Lepsze wyniki, zwłaszcza co do czasu utrzymywania się poprawy, uzyskano dla grupy, u której zastosowano krioterapię. Nie zaobserwowano negatywnych reakcji na zastosowane formy fizjoterapii.
! !
MIARY POŁOŻENIA MIARY TENDENCJI CENTRALNEJ Miary tendencji centralnej są to tzw. miary przeciętne charakteryzujące średni lub typowy poziom wartości cechy. Średnia arytmetyczna
!
gdzie xi to kolejne wartości zmiennej a n - liczebność próby. Średnia arytmetyczna jest stosowana dla skali interwałowej. Dla próby przyjmuje się ją oznaczać przez !
a dla populacji przez µ.
Średnia geometryczna
! Średnia ta jest stosowana dla skali interwałowej, gdy zmienna ma rozkład logarytmiczno-normalny (logarytm zmiennej ma rozkład normalny).
Średnia harmoniczna
! Średnia ta jest stosowana dla skali interwałowej.
Mediana W uporządkowanym zbiorze danych mediana jest wartością dzielącą ten zbiór na dwie równe części. Połowa wszystkich obserwacji znajduje się poniżej, a połowa powyżej mediany.
!46
! Mediana może być stosowana w skali interwałowej oraz porządkowej.
Moda Moda – jest to wartość obserwacji, która występuje najczęściej wśród uzyskanych pomiarów. Moda może być stosowana w każdej skali i jest wyrażona w tych samych jednostkach co wyniki pomiarów.
INNE MIARY POŁOŻENIA:
Kwartyle, decyle, centyle
! Kwartyle (Q1,Q2,Q3) dzielą uporządkowany szereg na 4 równe części, decyle (Di, i = 1, 2, ..., 9) na 10 równych części a centyle (percentyle: Ci, i = 1, 2, ..., 99) na sto równych części. Drugi kwartyl, piąty decyl i pięćdziesiąty centyl są równe medianie. Miery te mogą być stosowane w skali interwałowej oraz porządkowej.
MIARY ROZPROSZENIA Znajomość miar tendencji centralnej nie wystarcza do scharakteryzowania struktury zbiorowości statystycznej. Badana grupa może charakteryzować się różnym stopniem zmienności w zakresie badanej cechy. Potrzebne są zatem formuły pozwalające wyznaczyć wartości, które charakteryzują rozrzut danych. Miary rozproszenia są liczone tylko dla skali interwałowej, ponieważ bazują one na odległościach między punktami. Rozstęp
! gdzie xi to wartości badanej zmiennej
! gdzie Q1,Q3 to dolny i górny kwartyl. Rozstępy dla skali percentylowej (decylowej, centylowej) Rozstępy miedzy percentylami to jedna z miar rozproszenia i określa procent wszystkich obserwacji, których wartość znajduje się pomiędzy wybranymi percentylami. Wariancja - mierzy stopień rozproszenia pomiarów wokół średniej arytmetycznej
- wariancja z próby.
! gdzie xi to kolejne wartości zmiennej a ! - wariancja z populacji
to średnia arytmetyczna tych wartości, n - liczebność próby,
!47
!
gdzie xi to kolejne wartości zmiennej a µ to średnia arytmetyczna tych wartości, N - liczebność populacji.
Odchylenie standardowe – mierzy stopień rozproszenia pomiarów wokół średniej arytmetycznej. - odchylenie standardowe z próby
!
- odchylenie standardowe z populacji
! Im wyższa wartość odchylenia standardowego, tym bardziej zróżnicowana grupa pod względem badanej cechy. Uwaga!
Odchylenie standardowe z próby jest przybliżeniem odchylenia standardowego z populacji. Populacyjna wartość odchylenia standardowego mieści się w pewnym przedziale zawierającym odchylenie standardowe z próby. Przedział ten nazywany jest przedziałem ufności dla odchylenia standardowego. Współczynnik zmienności
Współczynnik zmienności podobnie jak odchylenie standardowe pozwala na ocenę stopnia jednorodności badanej zbiorowości. Wyraża się wzorem:
!
gdzie sd to odchylenie standardowe, !
to średnia arytmetyczna.
Jest to wielkość niemianowana. Pozwala on na ocenę zróżnicowania kilku zbiorowości pod względem tej samej cechy oraz tej samej zbiorowości pod względem kilku różnych cech (wyrażonych w różnych jednostkach). Przyjmuje się, że jeżeli współczynnik V nie przekracza 10%, to cechy wykazują zróżnicowanie statystycznie nieistotne. Błąd standardowy średniej – nie jest miarą rozproszenia wyników pomiarowych, lecz określa stopień dokładności, z jaką możemy określić wartość średniej arytmetycznej w populacji na podstawie wyznaczenia średniej w analizowanej próbie.
! Uwaga!
Na podstawie bęłdu standardowego średniej można określić przedział ufności dla średniej.
!
INNE ATRYBUTY ROZKŁADU Skośność inaczej współczynnik asymetrii
Jest to miara, która mówi o tym jak bardzo rozkład danych różni się od rozkładu symetrycznego. Im wartość współczynnika asymetrii jest bliższa zeru, tym bardziej symetrycznie wokół średniej rozkładają się dane. Zwykle wartość tego współczynnika zawiera się w przedziale [-1, 1], chociaż może w przypadku szczególnie dużej asymetrii znaleźć się poza tym przedziałem. Wartości dodatnie świadczą o występowaniu skośności prawostronnej (o dłuższym prawym ”ogonie”) wartości ujemne zaś o skośności lewostronnej (o dłuższym lewym ”ogonie”). Skośność wyraża się wzorem:
gdzie:
xi – kolejne wartości zmiennej,
!
!
, sd – odpowiednio średnia arytmetyczna i odchylenie standardowe xi,
n – liczność próby.
! Kurtoza inaczej współczynnik koncentracji
Jest to miara, która mówi o tym jak bardzo rozrzut danych wokół średniej jest zbliżony do rozrzutu tych danych w rozkładzie normalnym. Im wartość kurtozy jest większa od
!48
zera, tym badany rozkład jest bardziej smukły niż rozkład normalny a im wartość kurtozy jest mniejsza od zera, tym badany rozkład jest bardziej spłaszczony niż rozkład normalny. Kurtoza wyraża się wzorem:
!
gdzie:
xi – kolejne wartości zmiennej,
!
, sd – odpowiednio średnia arytmetyczna i odchylenie standardowe xi,
n – liczność próby.
!
Przykład (plik PL_nawozy.pqs) W doświadczeniu dotyczącym nawożenia gleby różnymi rodzajami preparatów mikrobiologicznych i nawozów wyliczono ilość mikroorganizmów występujących w 1 gramie suchej masy gleby. Chcemy wyznaczyć statystyki opisowe ilości promieniowcow dla próbki nawożonej azotem i zobrazować uzyskane wyniki za pomocą wykresu ramkawąsy. Zaznaczamy w arkuszu danych tylko 54 pierwsze wiersze, które odpowiadają założeniom analizy (są to promieniowce nawożone azotem) i uruchamiamy okno Statystyki opisowe poprzez menu Statystyka › Statystyki opisowe. W oknie opcji testu statystyk opisowych wybieramy zmienną do analizy: Ilość mikroorganizmów, a następnie procedury jakie chcemy wykonać (np. średnią arytmetyczną wraz z przedziałem ufności, medianę, odchylenie standardowe wraz z przedziałem ufności oraz informacje o skośności i kurtozie rozkładu wraz z błędami). Na górze okna powinien być widoczny komunikat: Dane ograniczone przez zaznaczenie. By w raporcie znalazł się również wykres, zaznaczamy opcję Dołącz wykres i wybieramy interesujący nas rodzaj wykresu ramka-wąsy. Potwierdzamy wybór przyciskiem OK i uzyskujemy wynik w postaci raportu:
!
!49
Klasyczne lektury metodologiczne
!
Ajdukiewicz, Kazimierz. Logika pragmatyczna, Warszawa, liczne wydania. Babiński, Grzegorz. 1979. Wybrane zagadnienia z metodologii socjologicznych badań empirycznych, Kraków. Babbie, Earl. 2004. Badania społeczne w praktyce, Warszawa: Wydawnictwo Naukowe PWN. Bombik, Mieczysław (red.). 1985. Z ogólnej metodologii nauk, Warszawa, ATK, Miscallanea Logica, t. 2. Chmielewska, B. 1985. Metodologia i metody badań społecznych ze szczególnym uwzględnieniem diagnozy, Słupsk, WSP, w. II. Dyoniziak, Ryszard, J.Mikułowski-Pomorski (red.). 1972. Problemy metodologiczne w socjologii współczesnej, Kraków, WSE. Grabowski, Marian. 1993. Elementy filozofii nauki, Toruń, UMK. Hempel, Carl G. 1968. Podstawy nauk przyrodniczych, Warszawa. Hempel, Carl G. 2001. Filozofia nauk przyrodniczych, Warszawa, ALETHEIA. Karpiński, Jakub. 1980. Wstęp do metodologii nauk społecznych, Warszawa. Karpiński, Jakub. 1985. Przyczynowość w badaniach socjologicznych, Warszawa, PWN. Karpiński, Jakub. 2006. Wprowadzenie do metodologii nauk społecznych, Warszawa, WSPZ im. Leona Koźmińskiego. Kmita, Jerzy. Wykłady z logiki i metodologii nauk. Dla studentów wydziałów humanistycznych, Warszawa, sporo wydań. Kotarbiński, Tadeusz. 1980. Elementy teorii poznania, logiki formalnej i metodologii nauk, Warszawa, w. III. Krawczyk, Zdzisław (red.). 1990. Socjologia nauki. Zarys problematyki, Warszawa, UW COM SNP. Krzykała, Franciszek. 1986. Metodologia badań i technik badawczych w socjologii, Koszalin-Pozna½, AE. Łubnicki, Narcyz. Nauka poprawnego myślenia, kilka wydań. Markowski, M. 1976. Metodologia nauk, Wrocław. Mayntz R. i in. 1985. Wprowadzenie do metodologii socjologii empirycznej, Warszawa, przekł. z niemieckiego. Mejbaum, Wacław, Aleksandra Żukrowska. 1985. Wstęp do metodologii nauk empirycznych, Kraków, UJ. Nagel, Ernest. 1970. Struktura nauki, Warszawa, PWN. Nowak, Stefan. 2007. Metodologia badań społecznych, Warszawa, PWN. Jest też wydanie z 1985 roku. Ogryzko-Wiewiórkowski, H. 1986. Wprowadzenie do metod badawczych socjologii, Lublin, UMCS. Pabis, Stanisław. 1985. Metodologia i metody nauk empirycznych, Warszawa, PWN. Pawłowski, Tadeusz. 1986. Tworzenie pojęć w naukach humanistycznych, Warszawa, PWN. Polański, Zbigniew. 1978. Współczesne metody badań doświadczalnych, Warszawa, Wiedza Powszechna. Siemianowski, Andrzej. 1978. Z zagadnień ogólnej metodologii nauk, Wrocław. Such, Jan. 1973. Wstęp do ogólnej metodologii nauk. Poznań, UAM. !50
Such, Jan, Małgorzata Szcześniak. 1997. Filozofia nauki, Poznań: Wydawnictwo Naukowe UAM. Sztompka, Piotr. 1973. Teoria i wyjaśnianie. Z metodologicznych problemów socjologii, Warszawa, PWN. Sztompka, Piotr (red.). 1975. Metodologiczne podstawy socjologii, Kraków, UJ (jest II wyd.). Sztumski, Janusz. 1999. Wstęp do metod i technik badań społecznych, Katowice, wyd. 5 zm. i uzup. Zimny, Zygmunt M. 2000. Metodologia badań społecznych. Wprowadzenie, Częstochowa: Wydawnictwo WSP.
!
I jeszcze trochę: Dobre obyczaje w nauce. Zbiór zasad i wytycznych (wyd. 3), Wyd. PAN Warszawa, 2001. Fras J., Dziennikarski warsztat językowy, Wyd. UWr. Wrocław, 1999. Kmita J., Szkice z teorii poznania naukowego, PWN Warszawa, 1976. Linsay D., Dobre rady dla piszących teksty naukowe, Oficyna Wydawnicza PWr. Wrocław, 1995. Mayer Th., Prawda kontra precyzja w ekonomii, PWN Warszawa, 1996. Polkinghorne J., Poza nauką. Kontekst kulturowy współczesnej nauki, Wyd. Amber Warszawa 1998. Stachak S., Wstęp do metodologii nauk ekonomicznych, Wyd. KsiąŜka i Wiedza Warszawa, 1997. Wiszniewski A., Jak przekonująco mówić i przemawiać, PWN Warszawa-Wrocław, 1994.
!51