• 7. Podstawowa konfiguracja sprzętowa komputera osobistego. Jednostka systemowa: pojęcia, typy. Struktura wewnętrzna jednostki systemowej.
  • 8. Płytka licznikowa komputera: koncepcja, przeznaczenie, charakterystyka, układy logiczne.
  • 9. Budowa i główne cechy procesora jako głównego mikroukładu komputera Komunikacja procesora z innymi urządzeniami. Elementy głównej linii komputera.
  • 10. Wewnętrzna pamięć komputera: RAM i pamięć podręczna, układ ROM i system bios, pamięć nieulotna CMOS. Zewnętrzne nośniki i urządzenia pamięci masowej.
  • 11. Budowa, zasada działania, podstawowe parametry dysku twardego.
  • 1. Protokół transmisji danych.
  • 12. Klasyfikacja urządzeń wejściowych i wyjściowych, porty komputera do podłączania urządzeń peryferyjnych.
  • 13. Rodzaje i podstawowe cechy użytkowników nowoczesnych monitorów.
  • 14. Drukarki: koncepcja, przeznaczenie, rodzaje, zasady pracy.
  • 15. Klawiatura: grupy klawiszy, przypisanie klawiszy.
  • 16. Rodzaje, zasada działania, regulowane parametry myszy. Dodaj. Urządzenia Comp-pa: modem, tuner TV, karta dźwiękowa.
  • 17. Pojęcie i struktura oprogramowania komputerów osobistych.
  • 18. Cel, rodzaje, wiodące funkcje systemu operacyjnego PC. Główne komponenty systemu operacyjnego: jądro, interfejs, sterowniki urządzeń.
  • 19. Pojęcie i rodzaje plików. Struktura plików komputera. Utrzymanie struktury plików komputera osobistego.
  • 20. Oprogramowanie użytkowe: pojęcie, znaczenie, struktura, rodzaje, programy.
  • 21. Cel i rodzaje języków programowania. Elementy systemu programowania.
  • 22. Cel i klasyfikacja oprogramowania usługowego.
  • 23. Wirus komputerowy. Oznaki infekcji wirusowej.
  • 24. Klasyfikacja wirusów.
  • 25. Rodzaje programów antywirusowych. Środki ochrony komputerów przed wirusami.
  • 26. Pojęcie archiwizacji. Metody i formaty kompresji informacji. Podstawowe pojęcia algorytmów rle, Lempel-Ziv, Huffman.
  • 27. Baza danych. Klasyfikacja. Modele baz danych. Zalety i wady.
  • 28. Subd. Rodzaje. Podstawowe zasady tworzenia.
  • 29. Zautomatyzowane stanowisko lekarza specjalisty. Cel, podstawowe wymagania i zasady rozwoju.
  • 30. Zestaw zadań rozwiązywanych za pomocą ramienia i główne kierunki wykorzystania automatycznych stanowisk pracy przez personel medyczny.
  • 31. Elementy konstrukcyjne i moduły funkcjonalne zautomatyzowanych stanowisk pracy pracowników medycznych. Klasyfikacja zautomatyzowanych miejsc pracy dla pracowników organizacji medycznych.
  • 32. Wiedza jako podstawa funkcjonowania systemów ekspertowych. Pojęcie, właściwości i rodzaje wiedzy.
  • 33. System ekspertowy: koncepcja, cel i elementy konstrukcyjne. Główne etapy tworzenia systemu ekspertowego
  • 34. Podstawowe funkcje systemów ekspertowych i wymagania dotyczące działania medycznych systemów ekspertowych.
  • 35. Tryby działania i rodzaje nowoczesnych systemów ekspertowych. System ekspercki i specjalista: zalety i wady komparatywne
  • 36. Pojęcie sieci komputerowej. Podstawowe wymagania dla nowoczesnych sieci komputerowych
  • 37. Główne elementy sieci komputerowej
  • 38. Klasyfikacja sieci komputerowych. Topologia ks. Rodzaje. Zalety i wady.
  • 39. Globalny Internet. Historia stworzenia. Ogólna charakterystyka Internetu. Zasada przełączania pakietów
  • 40. Protokół internetowy. Możliwości sieciowe. "Sieć ogólnoświatowa". Język HTML.
  • 41. Telemedycyna, zadania telemedycyny. Historia rozwoju. Główne kierunki telemedycyny
  • 42. Przedmiot, cele i zadania informatyki medycznej. Rodzaje informacji medycznych
  • 43. Klasyfikacja medycznych systemów informacyjnych (MIS). Zadania misji
  • 44. Technologia informacyjna. Systemy informacyjne
  • 45. Rodzaje technologicznych informacyjnych systemów medycznych. Niewłaściwe poziomy rozwoju
  • 46. \u200b\u200bHistoria rozwoju komputerów. Generacje komputerów. Aktualny etap rozwoju technologii obliczeniowej i jego perspektywy
  • 47. Statystyka matematyczna, jej metody. Główne etapy prac statystycznych.
  • 48. Ogólna populacja i próba. Metody pobierania próbek
  • 49. Seria wariacyjna i jej wizualne przedstawienie. Budowanie histogramu (algorytm)
  • 50. Charakterystyka rozkładu statystycznego: charakterystyka pozycji; cechy kształtu; charakterystyka rozpraszania.
  • 51. Estymacja parametrów populacji ogólnej. Estymacja punktowa i przedziałowa. Przedział ufności. Poziom istotności
  • 52. Analiza wariancji. Klasyfikacja i analiza czynników. Najprostszy schemat zmienności z różnicami w jednym czynniku
  • 53. Analiza wariancji. Robocza formuła do obliczania średnich kwadratów
  • 54. Obliczenie kryterium f w celu określenia wpływu badanego czynnika. Kwantyfikacja wpływu poszczególnych czynników.
  • 55. Pojęcie korelacji. Zależność funkcjonalna i korelacyjna. Wykresy punktowe.
  • 56. Współczynnik korelacji i jego własności.
  • 57. Analiza regresji. Regresja liniowa
  • 58. Rzędy dynamiki. Koncepcja szeregów czasowych. Typy wierszy. Definiowanie trendu
  • 59. Wyrównanie szeregów czasowych: metoda średniej ruchomej
  • 60. Wyrównanie szeregów czasowych: metoda najmniejszych kwadratów
  • 61. Wyrównanie szeregów czasowych: metoda wydłużania okresu
  • 62. Analiza szeregów czasowych. Średnia chronologiczna. Bezwzględny wzrost liczby. Tempo wzrostu
  • 63. Analiza szeregów czasowych. Średnia chronologiczna. Tempo wzrostu. Tempo wzrostu
  • 47. Statystyka matematyczna, jej metody. Główne etapy prac statystycznych.

    Statystyka matematyczna to dyscyplina naukowa, której przedmiotem jest opracowanie metod rejestracji, opisu i analizy statystycznych danych eksperymentalnych, uzyskiwanych w wyniku obserwacji masowych zjawisk losowych.

    Główne zadania statystyka matematyczna są:

      określenie prawa rozkładu zmiennej losowej lub układu zmiennych losowych;

      testowanie wiarygodności hipotez;

      wyznaczanie nieznanych parametrów rozkładu.

    Wszystkie metody statystyki matematycznej opierają się na teorii prawdopodobieństwa. Jednak ze względu na specyfikę rozwiązywanych problemów statystyka matematyczna wyróżnia się z teorii prawdopodobieństwa na odrębną dziedzinę. Jeżeli w teorii prawdopodobieństwa uznaje się model zjawiska za dany i oblicza się możliwy rzeczywisty przebieg tego zjawiska (rys. 1), to w statystyce matematycznej na podstawie danych statystycznych wybiera się odpowiedni model teoretyczno-probabilistyczny (rys. 2).

    Ryc.1. Ogólny problem teorii prawdopodobieństwa

    Ryc.2. Ogólny problem statystyki matematycznej

    Statystyka matematyczna jako dyscyplina naukowa rozwijała się wraz z teorią prawdopodobieństwa. Aparat matematyczny tej nauki powstał w drugiej połowie XIX wieku.

    Główne etapy prac statystycznych.

    Każde badanie statystyczne składa się z 3 głównych etapów:

      zbiór jest masową obserwacją zorganizowaną naukowo, dzięki której uzyskuje się podstawowe informacje o poszczególnych faktach (jednostkach) badanego zjawiska. Ta statystyczna ewidencja dużej liczby lub wszystkich jednostek wchodzących w skład badanego zjawiska stanowi bazę informacyjną do uogólnień statystycznych, do formułowania wniosków na temat badanego zjawiska lub procesu;

      grupowanie i podsumowanie. Przez dane te rozumie się rozkład zbioru faktów (jednostek) na jednorodne grupy i podgrupy, ostateczne liczenie dla każdej grupy i podgrupy oraz prezentację uzyskanych wyników w postaci tabeli statystycznej;

      przetwarzanie i analiza. Analiza statystyczna kończy etap badań statystycznych. Zawiera przetwarzanie danych statystycznych, które uzyskano podczas podsumowania, interpretację uzyskanych wyników w celu uzyskania obiektywnych wniosków o stanie badanego zjawiska i wzorcach jego rozwoju.

    48. Ogólna populacja i próba. Metody pobierania próbek

    Populacja ogólna (w języku angielskim - populacja) - całość wszystkich obiektów (jednostek), o których naukowiec zamierza wyciągnąć wnioski badając określony problem.

    Na populację ogólną składają się wszystkie obiekty podlegające badaniu. Kompozycja ogólna populacja zależy od celów badania. Czasami populacja ogólna to cała populacja danego regionu (np. Gdy badany jest stosunek potencjalnych wyborców do kandydata), najczęściej ustala się kilka kryteriów określających przedmiot badań. Na przykład mężczyźni w wieku 30–50 lat, którzy używają określonej marki maszynki do golenia przynajmniej raz w tygodniu i mają dochód w wysokości co najmniej 100 USD na członka rodziny.

    Próba lub populacja próbna - zbiór przypadków (podmiotów, obiektów, zdarzeń, prób), przy zastosowaniu określonej procedury, wybranych z populacji ogólnej do udziału w badaniu.

    Przykładowe cechy:

      Jakościowa charakterystyka próby - kogo dokładnie wybieramy i jakie metody konstruowania próbki stosujemy do tego

      Ilościowa charakterystyka próby - ile przypadków dobieramy, czyli wielkość próby.

    Potrzeba pobierania próbek

      Obiekt badań jest bardzo obszerny. Na przykład konsumenci produktów globalnej firmy to ogromna liczba rozproszonych geograficznie rynków.

      Istnieje potrzeba zebrania podstawowych informacji.

    Wielkość próbki

    Wielkość próby - liczba przypadków w próbie. Ze względów statystycznych zaleca się, aby liczba przypadków wynosiła co najmniej 30–35.

    Podstawowe metody pobierania próbek

    Dobór próby opiera się przede wszystkim na znajomości schematu losowania, rozumianego jako wykaz wszystkich jednostek populacji, z których dobierane są jednostki losowania. Na przykład, jeśli weźmiemy pod uwagę wszystkie warsztaty samochodowe w Moskwie jako agregat, to musimy mieć listę takich warsztatów, traktowaną jako kontur, w którym tworzona jest próbka.

    Kontur próbkowania nieuchronnie zawiera błąd, zwany błędem konturu próbkowania, który charakteryzuje stopień odchylenia od rzeczywistej wielkości populacji. Oczywiście nie ma pełnej oficjalnej listy wszystkich warsztatów samochodowych w Moskwie. Badacz powinien poinformować klienta o pracy o wielkości błędu konturu próbkowania.

    Podczas tworzenia próbki stosuje się metody probabilistyczne (losowe) i nieprawdopodobne (nielosowe).

    Jeśli wszystkie jednostki próby mają znaną szansę (prawdopodobieństwo) włączenia się do próby, wówczas próbka jest nazywana probabilistyczną. Jeśli to prawdopodobieństwo jest nieznane, próbkę nazywa się nieprawdopodobną. Niestety, w większości badań marketingowych ze względu na brak możliwości dokładnego określenia liczebności populacji nie jest możliwe dokładne obliczenie prawdopodobieństw. Dlatego termin „znane prawdopodobieństwo” opiera się na zastosowaniu określonych technik pobierania próbek, a nie na znajomości dokładnej wielkości populacji.

    Metody probabilistyczne obejmują:

      prosty wybór losowy;

      systematyczna selekcja;

      wybór klastra;

      wybór warstwowy.

    Nieprawdopodobne metody:

      wybór oparty na zasadzie wygody;

      selekcja oparta na osądach;

      pobieranie próbek podczas badania;

      pobieranie próbek na podstawie kwot.

    Znaczenie metody selekcji opartej na zasadzie wygody polega na tym, że dobór próby jest przeprowadzany w sposób najwygodniejszy z punktu widzenia badacza, np. Z punktu widzenia minimalnego nakładu czasu i wysiłku, z punktu widzenia dyspozycyjności respondentów. Wybór miejsca badań i składu próby dokonywany jest subiektywnie, np. Badanie klientów przeprowadzane jest w sklepie najbliżej miejsca zamieszkania badacza. Oczywiście wielu członków populacji nie bierze udziału w badaniu.

    Tworzenie próby na podstawie osądu odbywa się na podstawie opinii wykwalifikowanych specjalistów, biegłych o składzie próby. Grupy fokusowe są często tworzone na podstawie tego podejścia.

    Sampling w procesie ankietowym polega na zwiększaniu liczby respondentów w oparciu o propozycje respondentów, którzy już wzięli udział w badaniu. Początkowo badacz tworzy próbkę znacznie mniejszą niż jest to wymagane do badania, a następnie rozszerza się w trakcie realizacji.

    Utworzenie próby na podstawie kwot (dobór kwot) zakłada wstępne, w oparciu o cele badania, określenie liczby grup respondentów spełniających określone wymagania (cechy). Na przykład dla celów badawczych zdecydowano, że pięćdziesięciu mężczyzn i pięćdziesiąt kobiet powinno zostać przesłuchanych w domu towarowym. Ankieter przeprowadza ankietę, dopóki nie wybierze ustalonej kwoty.

    Metody statystyki matematycznej


    1. Wstęp

    Statystyka matematyczna to nauka, która rozwija metody uzyskiwania, opisywania i przetwarzania danych eksperymentalnych w celu badania wzorców przypadkowych zjawisk masowych.

    W statystyce matematycznej można wyróżnić dwa obszary: statystykę opisową i statystykę indukcyjną (wnioskowanie statystyczne). Statystyka opisowa dotyczy gromadzenia, systematyzacji i prezentacji danych eksperymentalnych w wygodnej formie. Statystyka indukcyjna oparta na tych danych pozwala na wyciąganie pewnych wniosków na temat obiektów, o których gromadzone są dane, lub oszacowanie ich parametrów.

    Typowe obszary statystyki matematycznej to:

    1) teoria próbkowania;

    2) teoria szacunków;

    3) testowanie hipotez statystycznych;

    4) analiza regresji;

    5) analiza wariancji.

    Statystyka matematyczna opiera się na szeregu podstawowych pojęć, bez których nie można się uczyć nowoczesne metody przetwarzanie danych eksperymentalnych. Jednym z pierwszych z nich jest pojęcie populacji ogólnej i próby.

    W masowej produkcji przemysłowej często konieczne jest, bez sprawdzania każdego wytworzonego produktu, ustalenie, czy jakość produktu spełnia normy. Ponieważ liczba wytwarzanych produktów jest bardzo duża lub weryfikacja produktów wiąże się z unieruchomieniem ich, sprawdzana jest niewielka liczba produktów. Na podstawie tej kontroli należy wyciągnąć wniosek dotyczący całej serii produktów. Oczywiście nie można powiedzieć, że wszystkie tranzystory z partii 1 miliona sztuk są dobre lub złe, sprawdzając jeden z nich. Z drugiej strony, ponieważ proces pobierania próbek do badań i samo badanie może być czasochłonne i kosztowne, zakres weryfikacji produktu powinien być taki, aby zapewniał wiarygodne odwzorowanie całej partii produktów przy zachowaniu minimalnej wielkości. W tym celu wprowadzimy kilka pojęć.

    Cały zestaw badanych obiektów lub danych eksperymentalnych nazywany jest populacją ogólną. Oznaczymy przez N liczbę obiektów lub ilość danych, które składają się na populację ogólną. Wartość N nazywana jest wielkością populacji ogólnej. Jeśli N \u003e\u003e 1, to znaczy N jest bardzo duże, to zwykle rozważa się N \u003d ¥.

    Próbę losową lub po prostu próbkę nazywa się częścią populacji ogólnej, losowo wybraną z niej. Słowo „losowo” oznacza, że \u200b\u200bprawdopodobieństwo wyboru dowolnego obiektu z populacji ogólnej jest takie samo. Jest to ważne założenie, jednak często trudno jest to sprawdzić w praktyce.

    Rozmiar próbki to liczba obiektów lub ilość danych, które składają się na próbkę i wynosi n ... W dalszej części przyjmiemy, że elementom próby można przypisać odpowiednio wartości liczbowe x 1, x 2, ... x n. Przykładowo w procesie kontroli jakości produkowanych tranzystorów bipolarnych mogą to być pomiary ich wzmocnienia DC.


    2. Numeryczna charakterystyka próbki

    2.1 Próbka średnia

    Dla konkretnej próby o rozmiarze n jej średnia z próby

    jest określony przez stosunek

    gdzie x i jest wartością przykładowych elementów. Zwykle chcesz opisać właściwości statystyczne próbek losowych, a nie jedną z nich. Oznacza to, że rozważany jest model matematyczny, który zakłada wystarczająco dużą liczbę próbek o wielkości n. W tym przypadku elementy próby są traktowane jako zmienne losowe X i, przyjmując wartości x i z gęstością prawdopodobieństwa f (x), która jest gęstością prawdopodobieństwa populacji ogólnej. Wówczas średnia próby jest również zmienną losową

    równy

    Tak jak poprzednio, zmienne losowe będziemy oznaczać dużymi literami, a wartości zmiennych losowych małymi literami.

    Średnia wartość populacji ogólnej, z której utworzono próbę, będzie nazywana średnią ogólną i oznaczona przez m x. Można oczekiwać, że jeśli liczebność próby jest znaczna, to średnia próby nie będzie się znacząco różnić od średniej ogólnej. Ponieważ średnia z próby jest zmienną losową, można znaleźć dla niej matematyczne oczekiwanie:

    Zatem matematyczne oczekiwanie dotyczące średniej próbki jest równe średniej ogólnej. W tym przypadku mówi się, że średnia próby jest nieobciążoną oceną średniej ogólnej. Wrócimy do tego semestru później. Ponieważ średnia próby jest zmienną losową, która oscyluje wokół średniej ogólnej, pożądane jest oszacowanie tej fluktuacji przy użyciu wariancji średniej z próby. Rozważ próbę, której wielkość n jest znacznie mniejsza niż wielkość populacji ogólnej N (n<< N). Предположим, что при формировании выборки характеристики генеральной совокупности не меняются, что эквивалентно предположению N = ¥. Тогда

    Zmienne losowe X i i X j (i¹j) można uznać za niezależne, dlatego

    Zastąp ten wynik formułą wariancji:

    gdzie s 2 to wariancja populacji ogólnej.

    Z tego wzoru wynika, że \u200b\u200bwraz ze wzrostem liczebności próby wahania średniej próby wokół ogólnej średniej maleją jako s 2 / n. Zilustrujmy to przykładem. Niech pojawi się losowy sygnał z matematycznym oczekiwaniem i wariancją, odpowiednio, równymi m x \u003d 10, s 2 \u003d 9.

    Próbki sygnału pobierane są w jednakowych odstępach czasu t 1, t 2, ...,

    X (t)

    X 1

    t 1 t 2. ... ... t n t

    Ponieważ próbki są zmiennymi losowymi, oznaczymy je przez X (t 1), X (t 2). ... ... , X (t n).

    Wyznaczmy liczbę zliczeń, tak aby odchylenie standardowe oszacowania matematycznego oczekiwania sygnału nie przekraczało 1% jego matematycznego oczekiwania. Ponieważ m x \u003d 10, jest to konieczne

    Z drugiej strony, lub Z tego otrzymujemy, że n ³ 900 próbek.

    2.2 Próbka wariancji

    W przypadku danych próbki ważne jest, aby znać nie tylko średnią z próby, ale także rozrzut wartości próbek wokół średniej próbki. Jeżeli średnia z próby jest oszacowaniem średniej ogólnej, to wariancja próby powinna być oszacowaniem wariancji ogólnej. Próbka wariancji

    dla próby składającej się ze zmiennych losowych określa się w następujący sposób

    Korzystając z tej reprezentacji wariancji próbki, znajdujemy jej matematyczne oczekiwanie

    * Niniejsza praca nie jest pracą naukową, nie jest ostateczną pracą kwalifikacyjną i jest wynikiem przetworzenia, uporządkowania i sformatowania zebranych informacji przeznaczonych do wykorzystania jako źródło materiału do samodzielnego przygotowania pracy dydaktycznej.

      Wprowadzenie.

      Bibliografia.

    Metody statystyki matematycznej

      Wprowadzenie.

      Podstawowe pojęcia statystyki matematycznej.

      Statystyczne przetwarzanie wyników badań psychologiczno-pedagogicznych.

      Bibliografia.

    Metody statystyki matematycznej

      Wprowadzenie.

      Podstawowe pojęcia statystyki matematycznej.

      Statystyczne przetwarzanie wyników badań psychologiczno-pedagogicznych.

      Bibliografia.

        Wprowadzenie.

    Zastosowanie matematyki do innych nauk ma sens tylko w połączeniu z głęboką teorią określonego zjawiska. Warto o tym pamiętać, aby nie zgubić się w prostej grze formuł, za którą nie ma prawdziwej treści.

    Akademik Yu.A. Metropolita

    Teoretyczne metody badawcze stosowane w psychologii i pedagogice pozwalają na ujawnienie jakościowej charakterystyki badanych zjawisk. Cechy te będą pełniejsze i głębsze, jeśli nagromadzony materiał empiryczny zostanie poddany ilościowej obróbce. Jednak problem pomiarów ilościowych w ramach badań psychologiczno-pedagogicznych jest bardzo złożony. Złożoność ta polega przede wszystkim na subiektywno-przyczynowym zróżnicowaniu działalności pedagogicznej i jej rezultatów w samym przedmiocie pomiaru, który znajduje się w stanie ciągłego ruchu i zmiany. Jednocześnie wprowadzenie wskaźników ilościowych do badania jest dziś koniecznym i obowiązkowym elementem pozyskiwania obiektywnych danych o wynikach pracy pedagogicznej. Z reguły dane te można uzyskać zarówno poprzez bezpośredni lub pośredni pomiar różnych elementów procesu pedagogicznego, jak i poprzez ilościową ocenę odpowiednich parametrów odpowiednio skonstruowanego modelu matematycznego. W tym celu w badaniu problemów psychologii i pedagogiki wykorzystuje się metody statystyki matematycznej. Z ich pomocą rozwiązuje się różnorodne zadania: przetwarzanie materiału faktograficznego, pozyskiwanie nowych, dodatkowych danych, uzasadnienie naukowej organizacji badań i inne.

    2. Podstawowe pojęcia statystyki matematycznej

    Niezwykle ważną rolę w analizie wielu zjawisk psychologiczno-pedagogicznych odgrywają wartości przeciętne, które są uogólnioną cechą populacji jednorodnej jakościowo, opartej na pewnym kryterium ilościowym. Niemożliwe jest na przykład obliczenie specjalności średniej czy średniej narodowości studentów, gdyż są to zjawiska niejednorodne jakościowo. Ale jest możliwe i konieczne ustalenie, średnio, liczbowych cech ich wyników w nauce (średni wynik), skuteczności systemów i technik metodologicznych itp.

    W badaniach psychologiczno-pedagogicznych zwykle stosuje się różne rodzaje średnich: średnia arytmetyczna, średnia geometryczna, mediana, moda i inne. Najczęściej są to średnia arytmetyczna, mediana i postać.

    Średnia arytmetyczna jest stosowana w przypadkach, gdy istnieje wprost proporcjonalna zależność między cechą definiującą a danym atrybutem (np. Wraz z poprawą wyników grupy badanej wyniki każdego z jej członków ulegają poprawie).

    Średnia arytmetyczna jest ilorazem podzielenia sumy wielkości przez ich liczbę i jest obliczana według wzoru:

    gdzie X jest średnią arytmetyczną; X1, X2, X3 ... Xn - wyniki indywidualnych obserwacji (techniki, działania),

    n to liczba obserwacji (technik, działań),

    Suma wyników wszystkich obserwacji (technik, działań).

    Mediana (Me) jest miarą średniej pozycji charakteryzującej wartość cechy w uporządkowanej (budowanej na podstawie rosnącej lub malejącej) skali, która odpowiada połowie badanej populacji. Medianę można określić dla cech porządkowych i ilościowych. Położenie tej wartości określa wzór: Położenie mediany \u003d (n + 1) / 2

    Na przykład. Badanie wykazało, że:

    - 5 osób z udziału w eksperymencie z ocenami doskonałymi;

    - 18 osób uczy się „dobrze”;

    - dla „dostatecznych” - 22 osoby;

    - „niezadowalający” - 6 osób.

    Ponieważ w eksperymencie wzięło udział N \u003d 54 osoby, środek próby jest równy ludziom. W związku z tym stwierdza się, że ponad połowa uczniów kształci się poniżej oceny „dobrej”, czyli mediana jest bardziej „zadowalająca”, ale niższa niż „dobra” (patrz wykres).

    Tryb (Mo) jest najbardziej powszechną typową wartością cechy spośród innych wartości. Odpowiada klasie z maksymalną częstotliwością. Ta klasa jest nazywana wartością modalną.

    Na przykład.

    Jeżeli na pytanie kwestionariusza: „wskazać stopień znajomości języka obcego”, odpowiedzi zostały rozdzielone:

    1 - mów płynnie - 25

    2 - Mówię wystarczająco dużo, aby się porozumieć - 54

    3 - Wiem jak, ale mam trudności z komunikacją - 253

    4 - Ledwie rozumiem - 173

    5 - nie mów - 28

    Oczywiście najbardziej typowym tutaj znaczeniem jest „posiadam, ale mam trudności z komunikowaniem się”, które będzie modalne. Więc mod to - 253.

    Przy stosowaniu metod matematycznych w badaniach psychologicznych i pedagogicznych dużą wagę przywiązuje się do obliczania wariancji i odchyleń średniej kwadratowej (standardowych).

    Wariancja jest równa średniej kwadratowej odchyleń wartości opcji od średniej. Działa jako jedna z charakterystyk poszczególnych wyników rozrzutu wartości badanej zmiennej (np. Ocen uczniów) wokół średniej. Obliczenie wariancji przeprowadza się poprzez określenie: odchylenia od średniej; kwadrat określonego odchylenia; suma kwadratów odchylenia i średnia kwadratu odchylenia (patrz Tabela 6.1).

    Wartość wariancji jest używana w różnych obliczeniach statystycznych, ale nie jest bezpośrednio obserwowalna. Wielkość bezpośrednio związana z zawartością obserwowanej zmiennej to odchylenie standardowe.

    Tabela 6.1

    Przykład obliczenia wariancji

    Wartość

    wskaźnik

    Odchylenie

    od średniej

    odchylenia

    2 – 3 = – 1

    Odchylenie od średniej kwadratowej potwierdza typowość i wykładniczą średnią arytmetyczną, odzwierciedla miarę fluktuacji wartości liczbowych znaków, z których wyprowadzana jest wartość średnia. Jest równy pierwiastkowi kwadratowemu z wariancji i jest określony wzorem:

    gdzie: - średnia kwadratowa. Przy małej liczbie obserwacji (działań) - mniej niż 100 - w wartości wzoru należy wstawić nie „N”, ale „N - 1”.

    Średnia arytmetyczna i średnia kwadratowa to główne cechy wyników uzyskanych w trakcie badania. Pozwalają nam uogólniać dane, porównywać je, ustalać przewagi jednego systemu (programu) psychologiczno-pedagogicznego nad innym.

    Odchylenie średnie kwadratowe (standardowe) jest szeroko stosowane jako miara dyspersji dla różnych charakterystyk.

    Oceniając wyniki badań, ważne jest określenie rozrzutu zmiennej losowej wokół średniej. Rozpraszanie to opisano za pomocą prawa Gaussa (prawa rozkładu normalnego prawdopodobieństwa zmiennej losowej). Istota tego prawa polega na tym, że przy pomiarze określonej cechy w danym zbiorze elementów zawsze występują odchylenia w obu kierunkach od normy z różnych niekontrolowanych przyczyn, natomiast im większe odchylenia, tym rzadziej występują.

    Dalsze przetwarzanie danych może ujawnić: współczynnik zmienności (stabilność) badane zjawisko, które jest procentem odchylenia standardowego w stosunku do średniej arytmetycznej; miara pochyleniawskazujące, w jakim kierunku skierowana jest przeważająca liczba odchyleń; miara chłodu, który pokazuje stopień kumulacji wartości zmiennej losowej wokół średniej itp. Wszystkie te dane statystyczne pozwalają pełniej identyfikować oznaki badanych zjawisk.

    Miary sprzężenia między zmiennymi. Nazywa się relacje (zależności) między dwiema lub więcej zmiennymi w statystykach korelacja. Szacuje się go za pomocą wartości współczynnika korelacji, który jest miarą stopnia i wielkości tej zależności.

    Istnieje wiele współczynników korelacji. Rozważmy tylko część z nich, która uwzględnia występowanie liniowej zależności między zmiennymi. Ich wybór zależy od skal pomiaru zmiennych, których związek wymaga oceny. W psychologii i pedagogice najczęściej stosuje się współczynniki Pearsona i Spearmana.

    Rozważmy obliczenie wartości współczynników korelacji na konkretnych przykładach.

    Przykład 1. Niech dwie porównywane zmienne X (stan cywilny) i Y (wykluczenie z uczelni) zostaną zmierzone na skali dychotomicznej (szczególny przypadek skali nominałów). Aby określić związek, używamy współczynnika Pearsona.

    W przypadkach, gdy nie ma potrzeby obliczania częstości występowania różnych wartości zmiennych X i Y, wygodnie jest obliczyć współczynnik korelacji za pomocą tabeli kontyngencji (patrz tabele 6.2, 6.3, 6.4), pokazującej liczbę wspólnych wystąpień par wartości dla dwóch zmiennych (cech) ... A - liczba przypadków, gdy zmienna X ma wartość równą zero, a jednocześnie zmienna Y ma wartość równą jeden; B - liczba przypadków, gdy zmienne X i Y mają jednocześnie wartości równe jeden; С - liczba przypadków, gdy zmienne X i Y mają jednocześnie wartości równe zero; D - liczba przypadków, gdy zmienna X ma wartość równą jeden, a jednocześnie zmienna Y ma wartość równą zero.

    Tabela 6.2

    Ogólna tabela awaryjna

    Cecha X

    Ogólnie wzór na współczynnik korelacji Pearsona dla danych dychotomicznych to

    Tabela 6.3

    Przykładowe dane w skali dychotomicznej

    Podstawmy dane z tabeli kontyngencji (patrz Tabela 6.4) odpowiadające rozpatrywanemu przykładowi do wzoru:

    Zatem współczynnik korelacji Pearsona dla wybranego przykładu wynosi 0,32, czyli związek między stanem cywilnym studentów a faktami wykluczenia z uczelni jest nieistotny.

    Przykład 2. Jeśli obie zmienne są mierzone w skalach rzędu, to jako miary zależności używany jest współczynnik korelacji rang Spearmana (Rs). Jest obliczany według wzoru

    gdzie Rs to współczynnik korelacji rang Spearmana; Di jest różnicą w rangach porównywanych obiektów; N to liczba porównywanych obiektów.

    Wartość współczynnika Spearmana waha się od –1 do +1. W pierwszym przypadku istnieje jednoznaczna, ale przeciwnie skierowana zależność między analizowanymi zmiennymi (wraz ze wzrostem wartości jednej, wartość drugiej maleje). W drugiej, wraz ze wzrostem wartości jednej zmiennej, proporcjonalnie rośnie wartość drugiej zmiennej. Jeśli wartość Rs jest równa zeru lub ma wartość zbliżoną do niej, to nie ma istotnego związku między zmiennymi.

    Jako przykład obliczenia współczynnika Spearmana posłużymy się danymi z tabeli 6.5.

    Tabela 6.5

    Dane i pośrednie wyniki obliczania wartości współczynnika

    korelacja rang Rs

    Cechy

    Rangi ekspertów

    Różnica rang

    Różnica rang do kwadratu

    –1
    –1
    –1

    Suma kwadratów różnic rang Di \u003d 22

    Podstawmy przykładowe dane do wzoru na współczynnik Smirmana:

    Wyniki obliczeń pozwalają stwierdzić, że istnieje wystarczająco wyraźna zależność między rozważanymi zmiennymi.

    Statystyczny test hipotezy naukowej. Dowód statystycznej wiarygodności wpływu eksperymentalnego różni się znacznie od dowodu w matematyce i logice formalnej, gdzie wnioski mają bardziej uniwersalny charakter: dowody statystyczne nie są tak ścisłe i ostateczne - zawsze grożą popełnieniem błędów we wnioskach, a zatem metody statystyczne nie udowadniają ostatecznie zasadności jednego lub drugiego wniosek i pokazano miarę prawdopodobieństwa przyjęcia określonej hipotezy.

    Hipoteza pedagogiczna (naukowe założenie o przewadze określonej metody itp.) W procesie analizy statystycznej jest tłumaczona na język nauk statystycznych i formułowana na nowo, przynajmniej w postaci dwóch hipotez statystycznych. Pierwsza (główna) nazywa się hipoteza zerowa (H 0), w którym badacz mówi o swojej pozycji wyjściowej. Oświadcza on (a priori) niejako, że nowa (przyjęta przez niego, jego kolegów lub przeciwników) metoda nie ma żadnych zalet, dlatego od samego początku badacz jest psychologicznie gotowy do zajęcia uczciwego stanowiska naukowego: różnice między nową a starą metodą deklaruje się jako zerowe. Winnym, alternatywna hipoteza (H 1) przyjęto założenie o zaletach nowej metody. Czasami wysuwa się kilka alternatywnych hipotez z odpowiednimi oznaczeniami.

    Na przykład hipoteza o przewadze starej metody (H 2). Hipotezy alternatywne są akceptowane wtedy i tylko wtedy, gdy hipoteza zerowa zostanie obalona. Dzieje się tak w przypadkach, gdy różnice, powiedzmy, w średnich arytmetycznych grup eksperymentalnej i kontrolnej są na tyle duże (statystycznie istotne), że ryzyko błędu odrzucenia hipotezy zerowej i przyjęcia alternatywy nie przekracza jednej z trzech akceptowanych. poziomy istotności wnioskowanie statystyczne:

    - pierwszy poziom - 5% (w tekstach naukowych piszą czasem p \u003d 5% lub a \u003c0,05, jeśli są przedstawiane w ułamkach), gdzie ryzyko błędu w wnioskach jest dopuszczalne w pięciu przypadkach na 100 teoretycznie możliwych podobnych eksperymentów ze ściśle losowym doborem badanych dla każdego eksperymentu;

    - drugi poziom to 1%, czyli odpowiednio ryzyko popełnienia błędu jest dopuszczalne tylko w jednym przypadku na sto (a \u003c0,01, przy takich samych wymaganiach);

    - trzeci poziom - 0,1%, czyli ryzyko popełnienia błędu jest dopuszczalne tylko w jednym przypadku na tysiąc (a? 0,001). Ostatni poziom istotności stawia bardzo wysokie wymagania co do uzasadnienia wiarygodności wyników eksperymentalnych i dlatego jest rzadko używany.

    Porównując średnią arytmetyczną grupy eksperymentalnej i kontrolnej, ważne jest nie tylko określenie, która średnia jest większa, ale także o ile większa. Im mniejsza różnica między nimi, tym bardziej akceptowalna będzie hipoteza zerowa o braku statystycznie istotnych (wiarygodnych) różnic. W przeciwieństwie do myślenia na poziomie codziennej świadomości, która jest skłonna postrzegać różnicę w środkach uzyskanych w wyniku doświadczenia jako fakt i podstawę do wnioskowania, nauczyciel-badacz zaznajomiony z logiką wnioskowania statystycznego nie spieszy się w takich przypadkach. Najprawdopodobniej przyjmie założenie o losowości różnic, postawi hipotezę zerową o braku istotnych różnic w wynikach grupy eksperymentalnej i kontrolnej, a dopiero po obaleniu hipotezy zerowej zaakceptuje alternatywę.

    W ten sposób kwestia różnic w ramach myślenia naukowego zostaje przeniesiona na inną płaszczyznę. Chodzi nie tylko o różnice (prawie zawsze istnieją), ale o wielkość tych różnic, a co za tym idzie o określenie różnicy i granicy, po której można powiedzieć: tak, różnice nie są przypadkowe, są istotne statystycznie, co oznacza, że \u200b\u200bbadani tych dwóch grup należą po eksperymentować już nie z jedną (jak poprzednio), ale z dwiema różnymi ogólnymi populacjami i że poziom przygotowania uczniów potencjalnie należących do tych populacji będzie się znacznie różnić. Aby pokazać granice tych różnic, tzw oszacowania parametrów ogólnych.

    Spójrzmy na konkretny przykład (patrz Tabela 6.6), jak za pomocą statystyki matematycznej można obalić lub potwierdzić hipotezę zerową.

    Np. Konieczne jest ustalenie, czy efektywność zajęć grupowych uczniów zależy od poziomu rozwoju w badanej grupie relacji interpersonalnych. Jako hipoteza zerowa sugeruje się, że taka zależność nie istnieje i jako alternatywa istnieje zależność. W tym celu porównuje się wyniki skuteczności działania w dwóch grupach, z których jedna działa w tym przypadku jako eksperymentalna, a druga jako kontrolna. Aby określić, czy różnica między średnimi wartościami wskaźników efektywności w pierwszej i drugiej grupie jest znacząca (istotna), należy obliczyć istotność statystyczną tej różnicy. Aby to zrobić, możesz użyć testu t - Studenta. Jest obliczany według wzoru:

    gdzie X 1 i X 2 - średnia arytmetyczna zmiennych z grup 1 i 2; M 1 i M 2 - wartości średnich błędów, które oblicza się według wzoru:

    gdzie jest średni kwadrat, obliczony według wzoru (2).

    Określmy błędy dla pierwszego rzędu (grupa eksperymentalna) i drugiego rzędu (grupa kontrolna):

    Wartość t - kryterium znajdujemy według wzoru:

    Po obliczeniu wartości kryterium t należy określić poziom istotności statystycznej różnic między średnimi wskaźnikami wyników w grupie eksperymentalnej i kontrolnej za pomocą specjalnej tabeli. Im wyższa wartość kryterium t, tym większe znaczenie różnic.

    W tym celu obliczone t jest porównywane z tabelarycznym t. Wartość tabeli dobierana jest z uwzględnieniem wybranego poziomu ufności (p \u003d 0,05 lub p \u003d 0,01), a także w zależności od liczby stopni swobody, którą określa wzór:

    gdzie U jest liczbą stopni swobody; N 1 i N 2 - liczba pomiarów w pierwszym i drugim rzędzie. W naszym przykładzie U \u003d 7 + 7 –2 \u003d 12.

    Tabela 6.6

    Dane i pośrednie wyniki obliczania istotności statystycznej

    Różnice w wartościach średnich

    Grupa eksperymentalna

    Grupa kontrolna

    Wartość wydajności

    Dla tabeli t - kryterium, znajdujemy wartość tabeli t. \u003d 3,055 dla poziomu jednego procenta (s

    Jednak nauczyciel-badacz powinien pamiętać, że istnienie statystycznej istotności różnicy wartości średnich jest ważnym, ale nie jedynym argumentem przemawiającym za istnieniem lub brakiem związku (zależności) między zjawiskami lub zmiennymi. Dlatego konieczne jest włączenie innych argumentów w celu ilościowego lub merytorycznego uzasadnienia ewentualnego związku.

    Metody analizy danych wielowymiarowych. Analizę zależności między dużą liczbą zmiennych przeprowadza się za pomocą wielowymiarowych metod przetwarzania statystycznego. Celem stosowania takich metod jest uwidocznienie ukrytych wzorców, podkreślenie najważniejszych zależności między zmiennymi. Przykładami takich wielowymiarowych metod statystycznych są:

      - Analiza czynników;

      - analiza skupień;

      - analiza wariancji;

      - Analiza regresji;

      - utajona analiza strukturalna;

      - wielowymiarowe skalowanie i inne.

    Analiza czynników jest identyfikacja i interpretacja czynników. Czynnik to zmienna uogólniona, która pozwala zwinąć część informacji, czyli przedstawić ją w wygodnej formie. Na przykład czynnikowa teoria osobowości identyfikuje szereg uogólnionych cech zachowania, które w tym przypadku nazywane są cechami osobowości.

    Analiza skupieńpozwala na wyróżnienie wiodącej cechy i hierarchii relacji między cechami.

    ANOVA - metoda statystyczna stosowana do badania jednej lub więcej jednocześnie działających i niezależnych zmiennych pod kątem zmienności obserwowanej cechy. Jego osobliwość polega na tym, że obserwowana cecha może być tylko ilościowa, a jednocześnie cechy wyjaśniające mogą być zarówno ilościowe, jak i jakościowe.

    Analiza regresji pozwala zidentyfikować ilościową (numeryczną) zależność średniej wartości zmian atrybutu efektywnego (wyjaśnionego) od zmian jednego lub więcej atrybutów (zmiennych objaśniających). Z reguły ten rodzaj analizy jest stosowany, gdy wymagane jest ustalenie, o ile zmienia się średnia wartość jednej cechy, gdy inna cecha zmienia się o jedną.

    Utajona analiza strukturalna reprezentuje zestaw analitycznych i statystycznych procedur identyfikacji ukrytych zmiennych (cech), a także wewnętrzną strukturę relacji między nimi. Umożliwia badanie przejawów złożonych współzależności bezpośrednio nieobserwowalnych cech zjawisk społeczno-psychologicznych i pedagogicznych. Utajona analiza może być podstawą do modelowania tych relacji.

    Skalowanie wielowymiarowe zapewnia wizualną ocenę podobieństwa lub różnicy między niektórymi obiektami opisanymi za pomocą wielu różnych zmiennych. Różnice te są przedstawiane jako odległość między ocenianymi obiektami w przestrzeni wielowymiarowej.

    3. Statystyczne przetwarzanie wyników psychologiczno-pedagogicznych

    badania

    W każdym opracowaniu zawsze należy zapewnić masę i reprezentatywność (reprezentatywność) przedmiotów badań. Aby rozwiązać ten problem, najczęściej sięgają po matematyczne metody obliczania minimalnej wartości badanych obiektów (grup respondentów), aby na tej podstawie można było wyciągnąć obiektywne wnioski.

    W zależności od stopnia kompletności pokrycia jednostek podstawowych statystyka dzieli badania na ciągłe, gdy badane są wszystkie jednostki badanego zjawiska, i selektywne, jeśli badana jest tylko część interesującej nas populacji, według pewnego kryterium. Badacz nie zawsze ma możliwość zbadania całokształtu zjawisk, choć trzeba o to nieustannie zabiegać (brakuje czasu, środków, niezbędnych warunków itp.); z drugiej strony, często ciągłe badanie nie jest po prostu wymagane, ponieważ wnioski będą dość dokładne po przestudiowaniu określonej części jednostek podstawowych.

    Podstawą teoretyczną selektywnej metody badań jest teoria prawdopodobieństwa i prawo wielkich liczb. Aby badanie miało wystarczającą liczbę faktów, obserwacji, użyj tabeli z wystarczająco dużymi liczbami. W takim przypadku badacz jest zobowiązany do ustalenia wielkości prawdopodobieństwa i wielkości dopuszczalnego błędu. Niech np. Dopuszczalny błąd w wnioskach, jakie mają być wyciągnięte w wyniku obserwacji, w porównaniu z założeniami teoretycznymi, nie powinien przekraczać 0,05 zarówno w kierunku dodatnim, jak i ujemnym (innymi słowy, możemy się pomylić w nie więcej niż 5 przypadków na 100). Następnie, zgodnie z tabelą wystarczająco dużych liczb (patrz tabela 6.7), stwierdzamy, że prawidłowy wniosek można wyciągnąć w 9 przypadkach na 10, gdy liczba obserwacji wynosi co najmniej 270, w 99 przypadkach na 100, przy co najmniej 663 obserwacjach itd. Oznacza to, że wraz ze wzrostem dokładności i prawdopodobieństwa, z jakim zamierzamy wyciągać wnioski, rośnie liczba wymaganych obserwacji. Jednak w badaniach psychologiczno-pedagogicznych nie powinien być zbyt duży. 300-500 obserwacji często wystarcza, aby wyciągnąć solidne wnioski.

    Ta metoda określania wielkości próby jest najprostsza. Statystyka matematyczna ma również bardziej złożone metody obliczania wymaganych zestawów próbek, które są szczegółowo opisane w specjalnej literaturze.

    Jednak spełnienie wymagań o charakterze masowym nie gwarantuje jeszcze rzetelności wniosków. Będą wiarygodne, gdy wybrane do obserwacji jednostki (rozmowy, eksperyment itp.) Będą dostatecznie reprezentatywne dla badanej klasy zjawisk.

    Tabela 6.7

    Krótka tabela zawierająca wystarczająco duże liczby

    Ilość

    prawdopodobieństwa

    Dopuszczalny

    Reprezentatywność jednostek obserwacji zapewnia przede wszystkim ich losowy dobór z wykorzystaniem tablic liczb losowych. Załóżmy, że wymagane jest wyznaczenie 20 grup szkoleniowych do przeprowadzenia eksperymentu masowego z dostępnych 200. W tym celu sporządza się i numeruje listę wszystkich grup. Następnie z tabeli liczb losowych wypisywanych jest 20 liczb, zaczynając od określonej liczby, w określonym przedziale. Te 20 liczb losowych, zgodnie z przestrzeganiem liczb, określa grupy, których potrzebuje badacz. Losowy dobór obiektów z populacji ogólnej (ogólnej) daje podstawy do stwierdzenia, że \u200b\u200bwyniki uzyskane w badaniu próby zbiorowości jednostek nie będą się znacznie różnić od tych, które byłyby dostępne w przypadku badania całej populacji jednostek.

    W praktyce badań psychologiczno-pedagogicznych stosuje się nie tylko proste selekcje losowe, ale także bardziej złożone metody selekcji: losowanie warstwowe, selekcja wieloetapowa itp.

    Matematyczne i statystyczne metody badawcze są również sposobem na uzyskanie nowego materiału faktograficznego. W tym celu stosuje się techniki szablonowe, które zwiększają pojemność informacyjną kwestionariusza oraz skalowanie, co pozwala na dokładniejszą ocenę działań zarówno badacza, jak i badanych.

    Skale powstały ze względu na potrzebę obiektywnej i trafnej diagnozy oraz pomiaru natężenia niektórych zjawisk psychologiczno-pedagogicznych. Skalowanie umożliwia uporządkowanie zjawisk, ilościową ocenę każdego z nich, określenie najniższych i najwyższych stadiów badanego zjawiska.

    Zatem badając zainteresowania poznawcze słuchaczy, można wyznaczyć ich granice: bardzo duże zainteresowanie - bardzo słabe zainteresowanie. Wprowadź kilka kroków między tymi granicami, które tworzą skalę zainteresowań poznawczych: bardzo duże zainteresowanie (1); duże zainteresowanie (2); średni (3); słaby (4); bardzo słaby (5).

    W badaniach psychologiczno-pedagogicznych stosuje się skale różnych typów, np.

    a) Trójwymiarowa skala

    Bardzo aktywny …… .. ………… ..10

    Aktywny ………………………… 5

    Pasywne… ………………… ... 0

    b) Skala wielowymiarowa

    Bardzo aktywny ………………… ..8

    Średniozaawansowany ………………… .6

    Niezbyt aktywny ………… ... 4

    Pasywny ……………………… ..2

    Całkowicie pasywne ………… ... 0

    c) Skala dwustronna.

    Jestem bardzo zainteresowany …………… ..10

    Jestem wystarczająco zainteresowany ………… 5

    Obojętny ……………………… .0

    Nie interesuje mnie ………………… ..5

    W ogóle brak zainteresowania ……… 10

    Numeryczne skale oceny nadają każdej pozycji określone oznaczenie numeryczne. Analizując więc stosunek uczniów do nauki, ich wytrwałość w pracy, chęć współpracy itp. umiesz sporządzić skalę liczbową na podstawie następujących wskaźników: 1 - niezadowalający; 2 - słaby; 3 - średni; 4 to powyżej średniej, 5 to znacznie powyżej średniej. W tym przypadku skala przyjmuje następującą postać (patrz Tabela 6.8):

    Tabela 6.8

    Jeśli skala numeryczna jest dwubiegunowa, stosuje się kolejność bipolarną z wartością zerową w środku:

    Dyscyplina Brak dyscypliny

    Wymowa 5 4 3 2 1 0 1 2 3 4 5 Niewymawiane

    Skale ocen można przedstawić graficznie. W tym przypadku wyrażają kategorie w formie wizualnej. Ponadto każdy podział (krok) skali jest scharakteryzowany werbalnie.

    Rozważane metody odgrywają ważną rolę w analizie i generalizacji uzyskanych danych. Pozwalają ustalić różnorodne relacje, korelacje między faktami, zidentyfikować trendy w rozwoju zjawisk psychologiczno-pedagogicznych. Zatem teoria grupowań statystyki matematycznej pomaga określić, które fakty z zebranego materiału empirycznego są porównywalne, na jakiej podstawie je poprawnie pogrupować, w jakim stopniu będą wiarygodne. Wszystko to pozwala uniknąć dowolnych manipulacji faktami i zdefiniować program do ich przetwarzania. W zależności od celów i zadań zwykle stosuje się trzy typy grupowań: typologiczne, wariacyjne i analityczne.

    Grupowanie typologiczne stosuje się go, gdy zachodzi potrzeba rozbicia uzyskanego materiału merytorycznego na jednostki jakościowo jednorodne (rozkład liczby naruszeń dyscypliny na różne kategorie uczniów, podział wskaźników ich sprawności fizycznej według lat studiów itp.).

    W razie potrzeby pogrupuj materiał według wartości dowolnego zmieniającego się (zmieniającego się) atrybutu - podział grup studentów według wyników w nauce, procentu zadań, podobnych naruszeń ustalonej kolejności itp. - zastosowany grupowanie odmian, co pozwala na konsekwentną ocenę struktury badanego zjawiska.

    Analityczny widok grupowania pomaga ustalić związek między badanymi zjawiskami (zależność stopnia przygotowania uczniów od różnych metod nauczania, jakość wykonywanych zadań od temperamentu, zdolności itp.), ich współzależność i współzależność w dokładnych obliczeniach.

    O znaczeniu pracy badacza w grupowaniu zebranych danych świadczy fakt, że błędy w tej pracy dewaluują najbardziej wyczerpujące i znaczące informacje.

    Obecnie matematyczne podstawy grupowania, typologii, klasyfikacji przeszły najgłębszy rozwój w socjologii. Nowoczesne podejścia i metody typologii i klasyfikacji w badaniach socjologicznych można z powodzeniem zastosować w psychologii i pedagogice.

    W toku badań stosowane są techniki ostatecznego uogólnienia danych. Jedną z nich jest technika sporządzania i studiowania tabel.

    Podczas zestawiania podsumowania danych dotyczących jednej wielkości statystycznej tworzony jest szereg dystrybucji (szereg odchyleń) wartości tej wielkości. Przykładem takiej serii (patrz tabela 6.9) jest zestawienie danych dotyczących obwodu klatki piersiowej 500 osób.

    Tabela 6.9

    Podsumowanie danych dla dwóch lub więcej wielkości statystycznych jednocześnie obejmuje zestawienie tabeli rozkładu, która ujawnia rozkład wartości jednej wielkości statycznej zgodnie z wartościami przyjmowanymi przez inne wielkości.

    Dla ilustracji podano tabelę 6.10, opracowaną na podstawie statystyk dotyczących obwodu klatki piersiowej i wagi tych osób.

    Tabela 6.10

    Obwód klatki piersiowej w cm

    Tabela dystrybucji daje wyobrażenie o zależności i zależności, jaka istnieje między dwiema wielkościami, a mianowicie: przy małej wadze częstotliwości znajdują się w lewej górnej ćwiartce tabeli, co wskazuje na przewagę osób o małym obwodzie klatki piersiowej. Wraz ze wzrostem wagi do średniej wartości, rozkład częstotliwości przesuwa się do środka płytki. Oznacza to, że osoby ważące bliżej średniej mają obwód klatki piersiowej, który jest również zbliżony do średniej. Wraz z dalszym wzrostem wagi częstotliwości zaczynają zajmować dolną prawą ćwiartkę płyty. Oznacza to, że osoba ważąca więcej niż przeciętna ma obwód klatki piersiowej, który również jest powyżej średniej.

    Z tabeli wynika, że \u200b\u200bustalona zależność nie jest ścisła (funkcjonalna), ale probabilistyczna, gdy wraz ze zmianami wartości jednej wielkości druga zmienia się jako trend, bez sztywnej, jednoznacznej zależności. Podobne powiązania i zależności często można znaleźć w psychologii i pedagogice. Obecnie są one zwykle wyrażane za pomocą analizy korelacji i regresji.

    Szeregi wariacyjne i tabele dają wyobrażenie o statyki zjawiska, natomiast dynamikę można zobrazować szeregami rozwoju, gdzie pierwsza linia zawiera kolejne etapy lub przedziały czasowe, a druga - wartości badanej wielkości statystycznej uzyskane na tych etapach. W ten sposób ujawnia się wzrost, spadek czy okresowe zmiany badanego zjawiska, ujawniają się jego tendencje, schematy.

    Tabele można wypełnić wartościami bezwzględnymi lub sumarycznymi (średnie, względne). Wyniki prac statystycznych - oprócz tabel, są często przedstawiane graficznie w postaci wykresów, kształtów itp. Głównymi sposobami graficznego przedstawienia wielkości statystycznych są: metoda punktów, metoda linii prostych oraz metoda prostokątów. Są proste i dostępne dla każdego badacza. Technika ich użycia polega na narysowaniu osi współrzędnych, ustaleniu skali oraz wyodrębnieniu oznaczenia segmentów (punktów) na osi poziomej i pionowej.

    Diagramy przedstawiające szeregi rozkładów wartości jednej wielkości statystycznej umożliwiają rysowanie krzywych rozkładu.

    Graficzne przedstawienie dwóch (lub więcej) wielkości statystycznych umożliwia utworzenie pewnej zakrzywionej powierzchni, zwanej powierzchnią dystrybucyjną. Seria opracowań w postaci krzywych rozwoju formy graficznej.

    Graficzne przedstawienie materiału statystycznego pozwala wniknąć głębiej w znaczenie wartości cyfrowych, uchwycić ich współzależności oraz trudne do zauważenia w tabeli cechy badanego zjawiska. Badacz jest wolny od pracy, którą musiałby wykonać, aby poradzić sobie z mnogością liczb.

    Tabele i wykresy są ważne, ale tylko pierwsze kroki w badaniu wielkości statystycznych. Główna metoda to analityczna, operująca wzorami matematycznymi, za pomocą których wyprowadzane są tzw. „Wskaźniki uogólniające”, czyli wartości bezwzględne podane w porównywalnej formie (wartości względne i średnie, salda i wskaźniki). Tak więc za pomocą wartości względnych (procentowych) określa się cechy jakościowe analizowanych agregatów (na przykład stosunek doskonałych uczniów do ogólnej liczby uczniów; liczba błędów podczas pracy na złożonym sprzęcie, spowodowanych niestabilnością psychiczną uczniów, do całkowitej liczby błędów itp.). Oznacza to, że ujawniają się relacje: część do całości (ciężar właściwy), terminy do sumy (struktura agregatu), jedna część agregatu do drugiej; charakteryzowanie dynamiki wszelkich zmian w czasie itp.

    Jak widać, nawet najbardziej ogólne zrozumienie metod rachunku statystycznego sugeruje, że metody te mają ogromne możliwości w analizie i przetwarzaniu materiału empirycznego. Oczywiście aparat matematyczny potrafi beznamiętnie przetwarzać wszystko, co włoży w niego badacz, zarówno rzetelne dane, jak i subiektywne przypuszczenia. Dlatego każdemu badaczowi niezbędne jest perfekcyjne opanowanie aparatu matematycznego do przetwarzania zgromadzonego materiału empirycznego w jedności z dogłębną znajomością jakościowych cech badanego zjawiska. Tylko w tym przypadku możliwy jest dobór obiektywnego materiału merytorycznego wysokiej jakości, jego kwalifikowana obróbka i uzyskanie wiarygodnych danych końcowych.

    Oto krótki opis najczęściej stosowanych metod badania problemów psychologii i pedagogiki. Należy podkreślić, że żadna z rozważanych metod sama w sobie nie może rościć sobie pretensji do uniwersalności, jako pełnej gwarancji obiektywności uzyskanych danych. Zatem elementy subiektywności w odpowiedziach uzyskanych podczas wywiadów z respondentami są oczywiste. Wyniki obserwacji z reguły nie są wolne od subiektywnych ocen samego badacza. Dane zaczerpnięte z różnych dokumentów wymagają jednocześnie weryfikacji poprawności tej dokumentacji (zwłaszcza dokumentów osobistych, dokumentów używanych itp.).

    Dlatego każdy badacz powinien dążyć z jednej strony do doskonalenia techniki stosowania określonej metody, az drugiej do wszechstronnego, wzajemnie kontrolującego się wykorzystania różnych metod do badania tego samego problemu. Posiadanie całego systemu metod pozwala na wypracowanie racjonalnej metodologii badań, przejrzystą ich organizację i przeprowadzenie oraz uzyskanie znaczących wyników teoretycznych i praktycznych.

      Bibliografia.

      Shevandrin N.I. Psychologia społeczna w edukacji: podręcznik. Część 1. Konceptualne i stosowane podstawy psychologii społecznej. - M .: VLADOS, 1995.

    2. Davydov V.P. Podstawy metodologii, metodologii i technologii badań pedagogicznych: Podręcznik naukowy i metodologiczny. - M .: Academy of the FSB, 1997.

    Statystyka matematyczna - to dziedzina matematyki, która bada przybliżone metody zbierania i analizy danych w oparciu o wyniki eksperymentu mającego na celu identyfikację istniejących wzorców, tj. znajdowanie praw rozkładu zmiennych losowych i ich charakterystyki numerycznej.

    W statystyce matematycznej zwykle wyróżnia się dwa główne obszary badań:

    1. Estymacja parametrów populacji ogólnej.

    2. Testowanie hipotez statystycznych (niektóre założenia a priori).

    Podstawowe pojęcia statystyki matematycznej to: populacja ogólna, próba, rozkład teoretyczny.

    Ogólna populacja jest zbiorem wszystkich możliwych statystyk podczas obserwacji zmiennej losowej.

    X G \u003d (x 1, x 2, x 3, ..., x N,) \u003d (x i; i \u003d 1, N)

    Obserwowana zmienna losowa X nazywana jest cechą lub współczynnikiem próbkowania. Populacja ogólna jest statystycznym analogiem zmiennej losowej, jej objętość N jest zwykle duża, dlatego część danych jest z niej wybierana, nazywana populacją próbną lub po prostu próbą.

    X B \u003d (x 1, x 2, x 3, ..., x n,) \u003d (x i; i \u003d 1, n)

    X B Ì X G, n £ N

    Próba to zbiór losowo wybranych obserwacji (obiektów) z populacji ogólnej do bezpośredniego badania. Liczba obiektów w próbce nazywana jest rozmiarem próbki i oznaczana jest przez n. Zazwyczaj próbka obejmuje 5–10% populacji ogólnej.

    Wykorzystanie próby do skonstruowania wzorców, którym podporządkowana jest obserwowana zmienna losowa, pozwala uniknąć jej ciągłej (masowej) obserwacji, co często jest procesem wymagającym dużej ilości zasobów, jeśli nie po prostu niemożliwym.

    Na przykład populacja to zbiór jednostek. Badanie całej populacji jest pracochłonne i kosztowne, dlatego dane są zbierane z próby osób uważanych za przedstawicieli tej populacji, co pozwala na wyciągnięcie wniosków na temat tej populacji.

    Jednak próbka musi koniecznie spełniać warunek reprezentatywnośćczyli dać świadomy obraz ogólnej populacji. Jak utworzyć reprezentatywną (reprezentatywną) próbkę? W idealnym przypadku dąży się do uzyskania losowej (losowej) próbki. W tym celu sporządzana jest lista wszystkich osobników w populacji, które są wybierane losowo. Ale czasami koszty sporządzenia listy mogą być nie do zaakceptowania, a następnie pobierają akceptowalną próbkę, na przykład jedną klinikę, szpital i badają wszystkich pacjentów w tej klinice z tą chorobą.

    Każdy element w próbce nazywany jest wariantem. Liczba powtórzeń wariantów w próbce nazywana jest częstotliwością występowania. Ilość jest nazywana częstotliwość względna opcje, tj. stanowi stosunek bezwzględnej częstotliwości wariantów do całej wielkości próby. Wywoływana jest sekwencja wariantów zapisana w kolejności rosnącej serie zmian.


    Rozważmy trzy formy serii wariacji: rankingową, dyskretną i interwałową.

    Rząd rankingowy to lista poszczególnych jednostek populacji w porządku rosnącym według badanej cechy.

    Seria odchyleń dyskretnych jest tabelą składającą się z wykresów lub wierszy: określona wartość cechy x i oraz bezwzględna częstotliwość n i (lub częstotliwość względna ω i) i-tej wartości cechy x.

    Przykładem szeregu odmian jest tabela

    Napisz rozkład częstotliwości względnych.

    Decyzja: Znajdź częstotliwości względne. Aby to zrobić, dzielimy częstotliwości przez wielkość próbki:

    Rozkład częstotliwości względnych jest następujący:

    0,15 0,5 0,35

    Kontrola: 0,15 + 0,5 + 0,35 \u003d 1.

    Serie dyskretne można wyświetlać graficznie. W prostokątnym kartezjańskim układzie współrzędnych zaznaczane są punkty o współrzędnych () lub (), które są połączone liniami prostymi. Taka przerywana linia nazywa się częstotliwości wielokątów.

    Skonstruuj dyskretną serię wariacji (DVR) i narysuj wielokąt dla 45 kandydatów na podstawie liczby punktów, które otrzymali na egzaminach wstępnych:

    39 41 40 42 41 40 42 44 40 43 42 41 43 39 42 41 42 39 41 37 43 41 38 43 42 41 40 41 38 44 40 39 41 40 42 40 41 42 40 43 38 39 41 41 42.

    Decyzja: Aby skonstruować szereg odchyleń, układamy różne wartości atrybutu x (warianty) w porządku rosnącym i zapisujemy jego częstotliwość pod każdą z tych wartości.

    Skonstruujmy wielokąt o takim rozkładzie:

    Postać: 13.1. Wielokąt częstotliwości

    Serie wariacji przedziałowych używany do dużej liczby obserwacji. Aby zbudować taką serię, należy wybrać liczbę interwałów cech i ustawić długość interwału. Przy dużej liczbie grup odstęp będzie minimalny. Liczbę grup w serii odchyleń można obliczyć za pomocą wzoru Sturgesa: (k to liczba grup, n to wielkość próby), a szerokość przedziału wynosi

    gdzie jest maksimum; - minimalna wartość jest wariantem, a ich różnica R nazywana jest zakres zmienności.

    Badana jest próba 100 osób spośród ogółu studentów uczelni medycznej.

    Decyzja: Obliczmy liczbę grup :. Tak więc, aby skompilować serię przedziałów, lepiej jest podzielić tę próbkę na 7 lub 8 grup. Zbiór grup, na które są podzielone wyniki obserwacji i częstotliwości uzyskiwania wyników obserwacji w każdej grupie, nazywamy populacja statystyczna.

    Aby zwizualizować rozkład statystyczny, użyj histogramu.

    Histogram częstotliwości jest postacią stopniowaną, składającą się z sąsiednich prostokątów, zbudowaną na jednej linii prostej, której podstawy są takie same i równe szerokości przedziału, a wysokość jest równa albo częstotliwości wpadania w przedział, albo częstotliwości względnej ω i.

    Obserwacje liczby cząstek wchodzących do licznika Geigera w ciągu minuty dały następujące wyniki:

    21 30 39 31 42 34 36 30 28 30 33 24 31 40 31 33 31 27 31 45 31 34 27 30 48 30 28 30 33 46 43 30 33 28 31 27 31 36 51 34 31 36 34 37 28 30 39 31 42 37.

    Skonstruuj z tych danych szereg zmian interwałowych o równych odstępach (I przedział 20-24; II przedział 24-28 itd.) I narysuj histogram.

    Decyzja: n \u003d 50

    Histogram tej dystrybucji wygląda następująco:

    Postać: 13.2. Histogram dystrybucji

    Opcje pracy

    № 13.1. Napięcie w sieci było mierzone co godzinę. W tym przypadku uzyskano następujące wartości (B):

    227 219 215 230 232 223 220 222 218 219 222 221 227 226 226 209 211 215 218 220 216 220 220 221 225 224 212 217 219 220.

    Zbuduj rozkład statystyczny i narysuj wielokąt.

    № 13.2. Obserwacje poziomu cukru we krwi u 50 osób dały następujące wyniki:

    3.94 3.84 3.86 4.06 3.67 3.97 3.76 3.61 3.96 4.04

    3.82 3.94 3.98 3.57 3.87 4.07 3.99 3.69 3.76 3.71

    3.81 3.71 4.16 3.76 4.00 3.46 4.08 3.88 4.01 3.93

    3.92 3.89 4.02 4.17 3.72 4.09 3.78 4.02 3.73 3.52

    3.91 3.62 4.18 4.26 4.03 4.14 3.72 4.33 3.82 4.03

    Skonstruuj z tych danych serię zmian przedziałów o równych odstępach (I - 3,45-3,55; II - 3,55-3,65 itd.) I przedstaw ją graficznie, narysuj histogram.

    № 13.3. Skonstruuj wielokąt częstości dystrybucji szybkości sedymentacji erytrocytów (ESR) u 100 osób.

    Rozważ kilka koncepcje i podstawowe podejścia do klasyfikacja błędy. Metodą obliczania błędy można podzielić na bezwzględne i względne.

    Absolutny błąd jest równa różnicy średniego pomiaru xa prawdziwa wartość tej ilości:

    W niektórych przypadkach, jeśli to konieczne, oblicza się błędy pojedynczych oznaczeń:

    Należy zauważyć, że mierzoną wartością w analizie chemicznej może być zarówno zawartość składnika, jak i sygnał analityczny. W zależności od tego, czy wynik analizy zawyża, czy zaniża błąd, mogą występować błędy pozytywnyi negatywny.

    Względny błąd można wyrazić w ułamkach lub procentach i zwykle nie ma znaku:

    lub

    Błędy można klasyfikować według ich źródła. Ponieważ źródeł błędów jest wiele, ich klasyfikacja nie może być jednoznaczna.

    Najczęściej błędy są klasyfikowane zgodnie z naturą przyczyn, które je powodują. W takim przypadku błędy są podzielone przez systematycznieniebo i na co dzień, rozróżnia się również chybienia (lub poważne błędy).

    DO systematyczny obejmują błędy spowodowane przez stale działającą przyczynę, są stałe we wszystkich pomiarach lub zmieniają się zgodnie z trwale działającym prawem, można je zidentyfikować i wyeliminować.

    Losowy błędy, których przyczyny są nieznane, można oszacować metodami statystyki matematycznej.

    Tęsknić jest błędem, który znacznie zniekształca wynik analizy i jest zwykle łatwy do wykrycia, zwykle spowodowany zaniedbaniem lub niekompetencją analityka. Na rys. 1.1 to diagram wyjaśniający pojęcia systematyczności oraz błędów i chybień. Proste 1 odpowiada idealnemu przypadkowi, w którym nie ma systematycznych i przypadkowych błędów we wszystkich definicjach N. Wiersze 2 i 3 są również wyidealizowanymi przykładami analizy chemicznej. W jednym przypadku (wiersz 2) przypadkowe błędy są całkowicie nieobecne, ale wszystkie Ndefinicje mają stały ujemny błąd systematyczny Δх; inaczej (wiersz 3) nie ma żadnego systematycznego błędu. Prawdziwa sytuacja jest odzwierciedlona w linii 4: występują zarówno błędy przypadkowe, jak i systematyczne.

    Postać: 4.2.1 Systematyczne i przypadkowe błędy w analizie chemicznej.

    Podział błędów na systematyczne i przypadkowe jest do pewnego stopnia arbitralny.

    Systematyczne błędy jednej próbki wyników przy uwzględnieniu większej liczby danych mogą stać się przypadkowe. Na przykład błąd systematyczny spowodowany nieprawidłowymi odczytami przyrządu podczas pomiaru sygnału analitycznego na różnych instrumentach w różnych laboratoriach staje się przypadkowy.

    Odtwarzalność charakteryzuje stopień zbliżenia pojedynczych definicji do siebie, rozrzut pojedynczych wyników w stosunku do średniej (ryc. 1.2).

    Postać: 4.2..2. Powtarzalność i dokładność analizy chemicznej

    W niektórych przypadkach wraz z terminem „odtwarzalność” należy używać terminu "konwergencja".W tym przypadku konwergencja jest rozumiana jako rozproszenie wyników równoległych oznaczeń, a odtwarzalność to rozproszenie wyników uzyskanych różnymi metodami, w różnych laboratoriach, w różnym czasie itp.

    Dobrze to jakość analizy chemicznej, odzwierciedlająca bliskość błędu systematycznego do zera. Poprawność charakteryzuje odchylenie uzyskanego wyniku analizy od rzeczywistej wartości zmierzonej wartości (patrz rys. 1.2).

    Ogólna populacja - hipotetyczny zbiór wszystkich wyobrażalnych wyników od -∞ do + ∞;

    Analiza danych eksperymentalnych pokazuje, że obserwuje się duże błędy rzadziejniż małe. Należy również zauważyć, że wraz ze wzrostem liczby obserwacji napotykane są te same błędy różnych znaków na równi często. Te i inne właściwości błędów losowych są opisane przez rozkład normalny lub równanie Gaussa,który opisuje gęstość prawdopodobieństwa
    .

    gdzie x-wartość zmiennej losowej;

    μ – Średnia ogólna (wartość oczekiwana- parametr stały);

    Wartość oczekiwana- dla ciągłej zmiennej losowej jest granicą, do której zmierza średnia z nieograniczonym wzrostem próby. Tak więc oczekiwanie matematyczne jest średnią wartością dla całej populacji jako całości, czasami jest nazywane Średnia ogólna.

    σ 2 -dyspersja (parametr stały) - charakteryzuje rozproszenie zmiennej losowej w stosunku do jej matematycznego oczekiwania;

    σ to odchylenie standardowe.

    Dyspersja - charakteryzuje rozproszenie zmiennej losowej względem jej matematycznego oczekiwania.

    Populacja próbki (próba) - rzeczywista liczba (n) wyników, jakie posiada badacz, n \u003d 3 ÷ 10.

    Normalne prawo dystrybucji gorszący poradzić sobie z niewielką liczbą zmian w próbie (zwykle od 3 do 10) - nawet jeśli populacja jako całość ma rozkład normalny. W przypadku małych próbek zamiast rozkładu normalnego użyj rozkład uczniów (t - dystrybucja), który łączy trzy główne cechy próbki -

    Szerokość przedziału ufności;

    Odpowiednie prawdopodobieństwo;

    Wielkość próbki.

    Przed przetwarzaniem danych metodami statystyki matematycznej konieczna jest identyfikacja chybia (poważne błędy) i wykluczyć je z rozpatrywanych wyników. Jedną z najprostszych jest metoda wykrywania błędów za pomocą Q-testu z liczbą pomiarów n< 10:

    gdzie R = x maks - x min - zakres zmienności; x 1 - podejrzanie widoczna wartość; x 2 - wynik pojedynczego oznaczenia, najbliższy wartości x 1 .

    Uzyskaną wartość porównuje się z wartością krytyczną Q Crit przy poziomie ufności P \u003d 0,95. Jeśli Q\u003e Q Crit, wyrzucony wynik jest chybiony i jest odrzucany.

    Główne cechy próbki... Aby pobrać próbki z n wyniki są obliczane Średnia,:

    i zmiennośćcharakteryzujące rozrzut wyników w stosunku do średniej:

    Wariancja w formie jawnej nie może być wykorzystana do ilościowego scharakteryzowania rozrzutu wyników, ponieważ jej wymiar nie pokrywa się z wymiarem wyniku analizy. Aby scharakteryzować zastosowanie rozpraszania odchylenie standardowe,S.

    Wartość ta jest również nazywana odchyleniem pierwiastka średniej kwadratowej (lub pierwiastka kwadratowego) lub błędem średniej kwadratowej pojedynczego wyniku.

    Owzględne odchylenie standardowelub współczynnik zmienności (V) jest obliczany przez stosunek

    Wariancja średniej arytmetycznej Oblicz:

    i odchylenie standardowe średniej

    Należy zwrócić uwagę, że wszystkie wartości - wariancja, odchylenie standardowe i odchylenie standardowe względne, a także wariancja średniej arytmetycznej i odchylenie standardowe średniej arytmetycznej - charakteryzują odtwarzalność wyników analizy chemicznej.

    Używane podczas przetwarzania małych (n<20) выборок из нормально распределенной генеральной совокупности t – распределение (т.е. распределение нормированной случайной величины) характеризуется соотношением

    gdziet p , fa rozkład studenta z liczbą stopni swobody fa= n-1 i poziom zaufania P \u003d 0,95(lub poziom istotności p \u003d 0,05).

    Wartości rozkładów t podano w tabelach, są one obliczane dla próby w r n daje wartość przedziału ufności zmierzonej wartości dla danego prawdopodobieństwa ufności zgodnie ze wzorem

    Przedział ufności charakteryzuje zarówno odtwarzalność wyników analizy chemicznej, jak i - jeśli znana jest prawdziwa wartość x - ich poprawność.

    Przykład wykonania pracy próbnej nr 2

    Zadanie

    Gdy ina podstawie analizy zawartości azotu w powietrzu metodą chromatograficzną uzyskano następujące wyniki dla dwóch serii doświadczeń:

    Decyzja:

    Sprawdź wiersze pod kątem poważnych błędów za pomocą testu Q. Po co umieszczać je w malejącym rzędzie (od minimum do maksimum lub odwrotnie):

    Pierwszy odcinek:

    77,90<77,92<77,95<77,99<78,05<78,07<78,08<78,10

    Sprawdzamy skrajne wyniki szeregu (czy zawierają duży błąd).

    Uzyskaną wartość porównuje się z wartością tabelaryczną (tabela 2 w załączniku). Dla n \u003d 8, p \u003d 0,95, zakładka Q \u003d 0,55.

    Dlatego Karta Q\u003e obliczenie Q 1, skrajna lewa cyfra nie jest „brakiem”.

    Sprawdzanie skrajnej prawej cyfry

    Q calc

    Liczba po prawej stronie również nie jest błędna.

    Mamy wyniki w drugim wierszutak w porządku rosnącym:

    78,02<78,08<78,13<78,14<78,16<78,20<78,23<78,26.

    Sprawdzamy skrajne wyniki eksperymentów - czy są błędne.

    Q (n \u003d 8, p \u003d 0,95) \u003d 0,55. Wartość tabeli.

    Wartość po lewej stronie nie jest zła.

    Cyfra po prawej stronie (czy jest błędna).

    Te. 0,125<0,55

    Liczba po prawej stronie nie jest „brakiem”.

    Wyniki eksperymentów poddajemy obróbce statystycznej.

      Obliczamy średnią ważoną wyników:

    - dla pierwszego rzędu wyników.

    - dla drugiego rzędu wyników.

      Rozrzut względem średniej:

    - dla pierwszego rzędu.

    - dla drugiego rzędu.

      Odchylenie standardowe:

    - dla pierwszego rzędu.

    - dla drugiego rzędu.

      Odchylenie standardowe średniej arytmetycznej:

    Dla małych (n<20) выборках из нормально распределенной генеральной совокупности следует использовать t – распределение, т.е. распределение Стьюдента при числе степени свободы f=n-1 и доверительной вероятности p=0,95.

    Korzystając z tablic rozkładów t, dla próby n - wyników, wyznacza się wartość przedziału ufności mierzonej wartości dla danego prawdopodobieństwa ufności. Ten przedział można obliczyć:

    Z równa wariancjai średnie wynikidwie próbki.

    Porównanie tych dwóch wariancji przeprowadza się za pomocą rozkładu F (rozkład Fishera). Jeśli mamy dwa zbiory próbek z wariancjami S 2 1 i S 2 2 oraz liczbą stopni swobody odpowiednio f 1 \u003d n 1 -1 if 2 \u003d n 2 -1, to obliczamy wartość F:

    F \u003d S 2 1 / S 2 2

    Ponadto licznik zawsze zawiera większą z tych dwóch porównane wariancje próbek. Wynik jest porównywany z wartością w tabeli. Jeżeli F 0\u003e F Crit (przy p \u003d 0,95; n 1, n 2), to rozbieżność między wariancjami jest znaczna, a badane zbiory próbek różnią się odtwarzalnością.

    Jeśli rozbieżność między wariancjami jest nieistotna, można porównać średnie x 1 i x 2 z dwóch próbek, tj. dowiedzieć się, czy istnieje statystycznie istotna różnica między wynikami testu. Aby rozwiązać problem, stosuje się rozkład t -. Średnia ważona z dwóch dyspersji jest obliczana wstępnie:

    I średnie ważone odchylenie standardowe

    a następnie - wartość t:

    Wartość t exp porównać z t kreta z liczbą stopni swobody f \u003d f 1 + f 2 \u003d (n 1 + n 2 -2) i poziomem ufności próbki p \u003d 0,95. Jeśli w tym samym czasie t exp > t kreta , a następnie rozbieżność między średnią i znaczący i próba nie należy do tej samej populacji ogólnej. Jeśli t exp< t крит, расхождение между средними незначимо, т.е. выборки принадлежат одной и той же генеральной совокупности, и, следовательно, данные обеих серий можно объединить и рассматривать их как одну выборочную совокупность из n 1 +n 2 результатов.

    Zadanie kontrolne nr 2

    Analiza powietrza na zawartość składnika X metodą chromatograficzną dla dwóch serii dała następujące wyniki (tabela-1).

    3. Czy są wyniki obu prób i tej samej populacji. Sprawdź według kryterium t-Studenta (p \u003d 0,95; n \u003d 8).

    Tabela-4.2.1- Wstępne dane do zadania kontrolnego nr 2

    Opcja nr

    Składnik


    Blisko