Metody i techniki badań przyrodniczych

Pojęcie metodologii i metody

We współczesnym rozumieniu metodologia to badanie struktury, logicznej organizacji, metod i środków działania. W szczególności metodologia nauk przyrodniczych to doktryna o zasadach konstrukcji, formach i metodach nauk przyrodniczych.

Metoda to zestaw technik lub operacji, działań praktycznych lub teoretycznych.

Metoda jest nierozerwalnie związana z teorią: metodą może stać się każdy system wiedzy obiektywnej. Nierozerwalny związek metody i teorii wyraża się w metodologicznej roli naturalnych praw naukowych. Na przykład prawa zachowania w naukach przyrodniczych stanowią zasadę metodologiczną wymagającą ścisłego przestrzegania odpowiednich operacji teoretycznych; Odruchowa teoria wyższej aktywności nerwowej służy jako jedna z metod badania zachowań zwierząt i ludzi.

Opisując rolę prawidłowej metody w poznaniu naukowym, F. Bacon porównał ją do lampy oświetlającej drogę podróżnemu w ciemności. Nie możesz oczekiwać sukcesu w badaniu jakiejkolwiek kwestii, podążając złą ścieżką.

Sama metoda nie przesądza całkowicie o sukcesie w przyrodniczo-naukowym badaniu rzeczywistości: ważna jest nie tylko dobra metoda, ale także umiejętność jej stosowania.

Różne metody dziedzin nauk przyrodniczych: fizyki, chemii, biologii itp. są specyficzne w stosunku do ogólnej dialektycznej metody poznania. Każda gałąź nauk przyrodniczych, mająca swój własny przedmiot badań i własne zasady teoretyczne, stosuje własne specjalne metody wynikające z takiego lub innego zrozumienia istoty jej przedmiotu. Specjalne metody stosowane np. w archeologii czy geografii zwykle nie wykraczają poza te nauki.Jednocześnie metody fizyczne i chemiczne znajdują zastosowanie nie tylko w fizyce i chemii, ale także w astronomii, biologii i archeologii. Stosowanie metody dowolnej gałęzi nauki w innych jej gałęziach odbywa się dzięki temu, że ich przedmioty podlegają prawom tej nauki. Na przykład metody fizyczne i chemiczne są stosowane w biologii na tej podstawie, że przedmiotem badań biologicznych są w takiej czy innej formie fizyczne i chemiczne formy ruchu materii.

Porównanie, analiza i synteza

Nawet starożytni myśliciele argumentowali: porównania są matką wiedzy. Ludzie trafnie wyrazili to w przysłowiu: „Jeśli nie znasz smutku, nie poznasz radości”. Nie można poznać dobra, nie wiedząc, co jest złe, nie można zrozumieć małego bez dużego itd. Wszystkiego można się nauczyć przez porównanie.

Aby dowiedzieć się, czym jest przedmiot, musisz najpierw dowiedzieć się, w czym jest podobny do innych obiektów i czym się od nich różni. Przykładowo, aby wyznaczyć masę ciała, należy porównać ją z masą innego ciała, przyjmowaną wzorcowo, czyli jako miarę próbną. Ten proces porównania przeprowadza się poprzez ważenie na wadze.

Porównanie to ustalenie podobieństw i różnic między obiektami. Porównanie leży u podstaw wielu naturalnych pomiarów naukowych, które stanowią integralną część każdego eksperymentu.

Porównując obiekty ze sobą, człowiek ma możliwość prawidłowego ich poznania, a tym samym prawidłowego poruszania się po otaczającym go świecie i celowego wpływania na niego. Porównanie, będąc niezbędną metodą poznania, odgrywa ważną rolę w praktycznej działalności człowieka oraz w badaniach nauk przyrodniczych, gdy porównuje się obiekty rzeczywiście jednorodne i podobne w istocie. Nie ma sensu porównywać, jak mówią, funtów z arshinami.

Porównanie, jako bardzo ogólna metoda poznania, często pojawia się w różnych gałęziach nauk przyrodniczych jako metoda porównawcza.

Proces przyrodniczego poznania naukowego przebiega w ten sposób, że najpierw obserwujemy ogólny obraz badanego obiektu, w którym szczegóły pozostają w cieniu. Przy takiej obserwacji nie da się poznać wewnętrznej struktury obiektu. Aby to zbadać, musimy rozczłonkować badane obiekty. Analiza to mentalny lub rzeczywisty rozkład obiektu na części składowe. Analiza, będąc niezbędną metodą poznania, jest jednocześnie jednym z elementów procesu poznania.

Istoty przedmiotu nie można poznać jedynie rozbijając go na elementy, z których się składa: chemik, zdaniem Hegla, wkłada do swojej retorty mięso, poddaje je różnym operacjom, a potem mówi: Znalazłem, że składa się z tlenu, węgla, wodoru itp. itd. Ale te istoty nie jedzą już mięsa. Każda dziedzina nauk przyrodniczych ma niejako własną granicę podziału przedmiotu, poza którą obserwuje się inny świat właściwości i wzorców.

Kiedy szczegóły zostaną dostatecznie zbadane poprzez analizę, rozpoczyna się kolejny etap poznania – synteza – połączenie w jedną całość elementów wyciętych w drodze analizy.

Analiza ujmuje głównie to, co specyficzne, co odróżnia części od siebie. Synteza ujawnia tę wspólnotę, która łączy części w jedną całość.

Osoba rozkłada przedmiot na części składowe, aby najpierw odkryć same części, dowiedzieć się, z czego składa się całość, a następnie uznać go za składający się z części, z których każda została już zbadana osobno. Analiza i synteza stanowią ze sobą dialektyczną jedność: w każdym ruchu nasze myślenie jest zarówno analityczne, jak i syntetyczne.

Analiza i synteza mają swój początek w praktycznej działalności człowieka, w jego pracy. Człowiek nauczył się mentalnie analizować i syntetyzować jedynie na podstawie praktycznego rozczłonkowania, cięcia, szlifowania, łączenia, komponowania przedmiotów przy wytwarzaniu narzędzi, odzieży, mieszkań itp. Tylko stopniowo pojmując, co dzieje się z przedmiotem podczas wykonywania praktycznych czynności z dzięki niemu człowiek nauczył się mentalnie analizować i syntetyzować. Analiza i synteza to podstawowe sposoby myślenia: procesy separacji i łączenia, niszczenia i tworzenia, rozkładu i łączenia: ciała odpychają się i przyciągają; pierwiastki chemiczne stykają się i oddzielają; w żywym organizmie procesy asymilacji i dysymilacji zachodzą w sposób ciągły; w produkcji coś zostaje rozczłonkowane, aby stworzyć produkt pracy potrzebny społeczeństwu.

Abstrakcja, idealizacja i uogólnienie

Każdy badany obiekt charakteryzuje się wieloma właściwościami i jest powiązany wieloma wątkami z innymi obiektami. W procesie przyrodniczej wiedzy naukowej pojawia się potrzeba skupienia uwagi na jednym aspekcie lub właściwości badanego obiektu i odwrócenia uwagi od szeregu innych jego cech lub właściwości.

Abstrakcja to mentalna izolacja obiektu w abstrakcji od jego powiązań z innymi obiektami, pewna właściwość obiektu w abstrakcji od jego innych właściwości, jakakolwiek relacja między obiektami w abstrakcji od samych obiektów. Początkowo abstrakcja wyrażała się w wyborze jednych obiektów za pomocą rąk, oczu i narzędzi, a abstrakcja od innych. Świadczy o tym pochodzenie samego słowa „abstrakcyjny” - od łacińskiego czasownika „tagere” (przeciągać) i przedrostka „ab” (na bok). A rosyjskie słowo „abstrakcyjny” pochodzi od czasownika „voloch” (przeciągać).

Abstrakcja jest warunkiem koniecznym powstania i rozwoju każdej nauki i wiedzy ludzkiej w ogóle. Pytanie o to, co w rzeczywistości obiektywnej uwypukla abstrakcyjna praca myślenia i od czego myślenie jest odrywane, rozwiązuje się w każdym konkretnym przypadku w bezpośredniej zależności od charakteru badanego obiektu i zadań postawionych przed badaczem. Na przykład w matematyce wiele problemów rozwiązuje się za pomocą równań, nie biorąc pod uwagę konkretnych rzeczy, które się za nimi kryją. Liczby nie dbają o to, co się za nimi kryje: ludzie, zwierzęta, rośliny czy minerały. Na tym polega wielka siła matematyki i jednocześnie jej ograniczenia.

Dla mechaniki, która bada ruch ciał w przestrzeni, właściwości fizyczne i kinetyczne ciał, z wyjątkiem masy, są obojętne. I. Keplera nie obchodził czerwonawy kolor Marsa ani temperatura Słońca, aby ustalić prawa rotacji planet. Kiedy Louis de Broglie poszukiwał związku pomiędzy właściwościami elektronu jako cząstki i fali, miał prawo nie interesować się żadną inną cechą tej cząstki.

Abstrakcja to ruch myśli w głąb tematu, uwypuklający jego istotne elementy. Przykładowo, aby daną właściwość obiektu można było uznać za chemiczną, rozproszenie, konieczna jest abstrakcja. Tak naprawdę właściwości chemiczne substancji nie obejmują zmiany jej kształtu, dlatego chemik bada miedź, odwracając uwagę od tego, co dokładnie jest z niej wykonane.

W żywej tkance logicznego myślenia abstrakcje umożliwiają odtworzenie głębszego i dokładniejszego obrazu świata, niż jest to możliwe za pomocą percepcji.

Ważną metodą przyrodniczo-naukowego poznania świata jest idealizacja jako specyficzny rodzaj abstrakcji. Idealizacja to mentalne tworzenie abstrakcyjnych obiektów, które nie istnieją i nie są możliwe do zrealizowania w rzeczywistości, ale dla których istnieją prototypy w prawdziwym świecie. Idealizacja to proces tworzenia koncepcji, których rzeczywiste prototypy można wskazać jedynie przy różnym stopniu przybliżenia. Przykłady wyidealizowanych pojęć: „punkt”, czyli przedmiot, który nie ma ani długości, ani wysokości, ani szerokości; „linia prosta”, „okrąg”, „punktowy ładunek elektryczny”, „gaz doskonały”, „ciało doskonale czarne” itp.

Wprowadzenie do przyrodniczo-naukowego procesu badania wyidealizowanych obiektów pozwala na konstruowanie abstrakcyjnych diagramów rzeczywistych procesów, niezbędnych do głębszej penetracji wzorców ich występowania.

Ważnym zadaniem wiedzy przyrodniczej jest generalizacja – proces mentalnego przejścia od jednostki do ogółu, od mniej ogólnego do bardziej ogólnego.

Na przykład mentalne przejście od pojęcia „trójkąta” do pojęcia „wielokąta”, od pojęcia „mechanicznej formy ruchu materii” do pojęcia „formy ruchu materii”, od sądu „to metal przewodzi prąd elektryczny” do wyroku „wszystkie metale przewodzą prąd elektryczny”, od wyroku „mechaniczna forma energii zamienia się w ciepło” do wyroku „każda forma energii zamienia się w inną formę energii” itp.

Umysłowe przejście od bardziej ogólnego do mniej ogólnego jest procesem ograniczania. Procesy uogólniania i ograniczania są ze sobą nierozerwalnie powiązane. Bez uogólnień nie ma teorii. Teorię tworzy się po to, aby zastosować ją w praktyce do rozwiązania konkretnych problemów. Na przykład, aby zmierzyć obiekty i stworzyć konstrukcje techniczne, zawsze konieczne jest przejście od tego, co bardziej ogólne do tego, co mniej ogólne i indywidualne, czyli zawsze konieczny jest proces ograniczania.

Abstrakcja i konkret

Proces przyrodniczej wiedzy naukowej odbywa się na dwa powiązane ze sobą sposoby: wznosząc się od konkretu danego w percepcji i przedstawieniu do abstrakcji oraz wznosząc się od abstrakcji do konkretu. Na pierwszej ścieżce reprezentacja wizualna „wyparowuje” do poziomu abstrakcji, na drugiej ścieżce myśl ponownie przenosi się do wiedzy konkretnej, ale do bogatego zestawu licznych definicji. Abstrakt rozumiany jest jako jednostronne, niepełne odbicie przedmiotu w świadomości. Wiedza konkretna jest odzwierciedleniem rzeczywistych relacji między elementami przedmiotu w systemie całości, rozpatrywaniem go ze wszystkich stron, w rozwoju, ze wszystkimi jego nieodłącznymi sprzecznościami.

Konkret jest wynikiem badań naukowych, odbiciem obiektywnej rzeczywistości w systemie pojęć i kategorii, teoretycznie znaczącą jednością różnorodności w przedmiocie badań. Metodą teoretycznego poznania obiektu jako całości jest przejście od abstrakcji do konkretu.

Analogia

W samej naturze rozumienia faktów kryje się analogia łącząca wątki nieznanego ze znanym. Nowe jest łatwiejsze do zrozumienia i zrozumienia poprzez obrazy i koncepcje starego, znanego. Analogia to prawdopodobny, wiarygodny wniosek na temat podobieństwa dwóch obiektów pod względem jakiejś cechy, oparty na ich ustalonym podobieństwie pod względem innych cech. Wniosek jest taki, im bardziej prawdopodobne jest, im bardziej podobne cechy mają porównywane obiekty i tym większe są te cechy. Pomimo tego, że analogie dostarczają jedynie prawdopodobnych wniosków, w wiedzy odgrywają one ogromną rolę, gdyż prowadzą do powstania hipotez – naukowych domysłów i założeń, które na kolejnym etapie badań i dowodów mogą zamienić się w teorie naukowe. Analogia do tego, co wiemy, pomaga nam zrozumieć to, co nieznane. Analogia do prostego pomaga zrozumieć bardziej złożone. W ten sposób, analogicznie do sztucznej selekcji najlepszych ras zwierząt domowych, Karol Darwin odkrył prawo doboru naturalnego w świecie zwierząt i roślin. Analogia do przepływu cieczy w rurze odegrała ważną rolę w powstaniu teorii prądu elektrycznego. Analogie z mechanizmem działania mięśni, mózgu i narządów zmysłów zwierząt i ludzi skłoniły do ​​wynalezienia wielu konstrukcji technicznych: koparek, robotów, maszyn logicznych itp.

Analogia jako metoda jest najczęściej wykorzystywana w teorii podobieństwa, na której opiera się modelowanie.

Modelowanie

We współczesnej nauce i technologii coraz bardziej rozpowszechniona jest metoda modelowania, której istotą jest odtworzenie właściwości przedmiotu wiedzy na specjalnie zaprojektowanym jego odpowiedniku - modelu. Jeżeli model ma taki sam charakter fizyczny jak oryginał, wówczas mamy do czynienia z modelowaniem fizycznym. Model można zbudować zgodnie z zasadą modelowania matematycznego, jeśli ma on inny charakter, ale jego funkcjonowanie opisuje układ równań identyczny z tym, który opisuje badany oryginał.

Modelowanie ma szerokie zastosowanie, ponieważ pozwala na badanie procesów charakterystycznych dla oryginału w przypadku braku samego oryginału i w warunkach niewymagających jego obecności. Jest to często konieczne ze względu na niedogodności związane z badaniem samego obiektu oraz z innych powodów: wysoki koszt, niedostępność, trudność w dostawie, ogrom itp.

Wartość modelu polega na tym, że jest on znacznie łatwiejszy do wykonania, łatwiej jest z nim przeprowadzać eksperymenty niż z oryginałem itp.

W ostatnim czasie aktywnie rozwijają się elektroniczne urządzenia symulacyjne, w których za pomocą procesów elektronicznych odtwarzany jest rzeczywisty proces według zadanego programu. Zasada modelowania stanowi podstawę cybernetyki. Modelowanie służy do obliczania trajektorii rakiet balistycznych, badania trybów pracy maszyn i całych przedsiębiorstw, dystrybucji zasobów materialnych itp.

Indukcja i dedukcja

Jako metodę przyrodniczych badań naukowych indukcję można zdefiniować jako proces wyprowadzania ogólnego stanowiska z obserwacji szeregu konkretnych, indywidualnych faktów.

Zwykle istnieją dwa główne typy indukcji: pełna i niekompletna. Indukcja zupełna to wniosek dowolnego ogólnego sądu o wszystkich przedmiotach pewnego zbioru, oparty na rozważeniu każdego przedmiotu z danego zbioru. Zakres zastosowania takiej indukcji ogranicza się do obiektów, których liczba jest skończona. W praktyce częściej stosuje się formę indukcji, która polega na wyciąganiu wniosków o wszystkich obiektach danego zbioru na podstawie znajomości tylko części obiektów. Takie wnioski z niepełnej indukcji mają często charakter probabilistyczny. Indukcja niepełna, oparta na badaniach eksperymentalnych i zawierająca uzasadnienie teoretyczne, jest w stanie dać wiarygodne wnioski. Nazywa się to indukcją naukową. Według słynnego francuskiego fizyka Louisa de Broglie indukcja, ponieważ ma na celu przesunięcie istniejących już granic myślenia, jest prawdziwym źródłem prawdziwie naukowego postępu. Wielkie odkrycia i postępy w myśli naukowej ostatecznie powstają w drodze indukcji – ryzykownej, ale ważnej metody twórczej.

Dedukcja to proces analitycznego rozumowania od ogółu do szczegółu lub mniej ogólnego. Początkiem (przesłankami) dedukcji są aksjomaty, postulaty lub po prostu hipotezy mające charakter twierdzeń ogólnych, a końcem są konsekwencje przesłanek, twierdzeń. Jeżeli przesłanki dedukcji są prawdziwe, to jej konsekwencje są prawdziwe. Dedukcja jest głównym środkiem dowodowym. Zastosowanie dedukcji umożliwia wyprowadzenie z prawd oczywistych wiedzy, której nasz umysł nie jest już w stanie ogarnąć z natychmiastową jasnością, ale która ze względu na sam sposób jej uzyskania wydaje się w pełni uzasadniona, a przez to wiarygodna. Odliczenia prowadzone według ścisłych zasad nie mogą prowadzić do błędów.

Metody nauk przyrodniczych opierają się na jedności jej strony empirycznej i teoretycznej. Są ze sobą powiązane i wzajemnie się warunkują. Ich zerwanie, czyli preferencyjny rozwój jednego kosztem drugiego, zamyka drogę do prawidłowego poznania przyrody – teoria staje się bezcelowa, doświadczenie staje się ślepe.

Metody nauk przyrodniczych można podzielić na następujące grupy:

  • 1. Metody ogólne dotyczące dowolnego przedmiotu, dowolnej nauki. Są to różne formy metody, które pozwalają połączyć ze sobą wszystkie aspekty procesu poznania, wszystkie jego etapy, na przykład metodę wznoszenia się od abstrakcji do konkretu, jedność logiczną i historyczną. Są to raczej ogólne filozoficzne metody poznania.
  • 2. Metody specjalne dotyczą tylko jednej strony badanego przedmiotu lub określonej techniki badawczej:

analiza, synteza, indukcja, dedukcja. Metody specjalne obejmują również obserwację, pomiary, porównania i eksperymenty.

W naukach przyrodniczych niezwykle ważne są specjalne metody nauki, dlatego w ramach naszego kursu należy bardziej szczegółowo rozważyć ich istotę.

Obserwacja to celowy, ścisły proces postrzegania obiektów rzeczywistości, których nie należy zmieniać. Historycznie rzecz biorąc, metoda obserwacji rozwija się jako integralna część operacji pracy, która obejmuje ustalenie zgodności produktu pracy z planowanym modelem.

Obserwację jako metodę rozumienia rzeczywistości stosuje się albo tam, gdzie eksperyment jest niemożliwy lub bardzo trudny (w astronomii, wulkanologii, hydrologii), albo tam, gdzie zadaniem jest zbadanie naturalnego funkcjonowania lub zachowania obiektu (w etologii, psychologii społecznej itp.). ). Obserwacja jako metoda zakłada istnienie programu badawczego utworzonego na podstawie przeszłych przekonań, ustalonych faktów i przyjętych koncepcji. Szczególnymi przypadkami metody obserwacji są pomiar i porównanie.

Eksperyment to metoda poznania, za pomocą której bada się zjawiska rzeczywistości w kontrolowanych i kontrolowanych warunkach. Od obserwacji różni się ingerencją w badany obiekt, czyli działaniem w stosunku do niego. Prowadząc eksperyment, badacz nie ogranicza się do biernej obserwacji zjawisk, ale świadomie ingeruje w naturalny przebieg ich występowania, bezpośrednio wpływając na badany proces lub zmieniając warunki, w jakich proces ten zachodzi.

Specyfika eksperymentu polega również na tym, że w normalnych warunkach w przyrodzie procesy są niezwykle złożone i skomplikowane i nie da się ich w pełni kontrolować i kontrolować. Powstaje zatem zadanie zorganizowania badania, w którym możliwe byłoby prześledzenie przebiegu procesu w „czystej” formie. W tym celu eksperyment oddziela czynniki istotne od nieistotnych, co znacznie upraszcza sytuację. W rezultacie takie uproszczenie przyczynia się do głębszego zrozumienia zjawisk i stwarza możliwość kontrolowania kilku czynników i wielkości, które są istotne dla danego procesu.

Rozwój nauk przyrodniczych rodzi problem rygoru obserwacji i eksperymentu. Faktem jest, że potrzebują specjalnych narzędzi i urządzeń, które ostatnio stały się tak skomplikowane, że same zaczynają wpływać na obiekt obserwacji i eksperymentu, co w zależności od warunków nie powinno mieć miejsca. Dotyczy to przede wszystkim badań z zakresu fizyki mikroświata (mechanika kwantowa, elektrodynamika kwantowa itp.).

Analogia to metoda poznania, w której transfer wiedzy uzyskanej podczas rozpatrywania jednego przedmiotu następuje na inny, mniej zbadany i aktualnie badany. Metoda analogii opiera się na podobieństwie obiektów pod względem szeregu cech, co pozwala uzyskać w pełni rzetelną wiedzę na temat badanego przedmiotu.

Stosowanie metody analogii w wiedzy naukowej wymaga pewnej ostrożności. Tutaj niezwykle ważne jest jasne określenie warunków, w jakich działa on najskuteczniej. Jednak w przypadkach, gdy możliwe jest opracowanie systemu jasno sformułowanych zasad przenoszenia wiedzy z modelu do prototypu, wyniki i wnioski uzyskane metodą analogii nabierają mocy dowodowej.

Modelowanie to metoda wiedzy naukowej polegająca na badaniu dowolnych obiektów poprzez ich modele. Pojawienie się tej metody spowodowane jest faktem, że czasami badany przedmiot lub zjawisko okazuje się niedostępne dla bezpośredniej interwencji podmiotu poznającego lub interwencja taka jest z wielu powodów niewłaściwa. Modelowanie polega na przeniesieniu działań badawczych na inny obiekt, pełniący funkcję substytutu interesującego nas obiektu lub zjawiska. Obiekt zastępczy nazywany jest modelem, a obiekt badawczy oryginałem lub prototypem. Model pełni w tym przypadku rolę substytutu prototypu, co pozwala uzyskać pewną wiedzę na jego temat.

Istotą modelowania jako metody poznania jest więc zastąpienie przedmiotu badań modelem, przy czym za wzór mogą posłużyć przedmioty pochodzenia zarówno naturalnego, jak i sztucznego. Umiejętność modelowania polega na tym, że model pod pewnymi względami odzwierciedla jakiś aspekt prototypu. Podczas modelowania bardzo ważne jest posiadanie odpowiedniej teorii lub hipotezy, która ściśle wskazuje granice i granice dopuszczalnych uproszczeń.

Główne elementy nauk przyrodniczych to:

  • · ugruntowane fakty;
  • · wzorce uogólniające grupy faktów;
  • · teorie, z reguły, będące systemami praw zbiorowo opisujących pewien fragment rzeczywistości;
  • · naukowe obrazy świata, rysujące uogólnione obrazy całej rzeczywistości, w których wszystkie teorie pozwalające na wzajemne porozumienie łączą się w swego rodzaju systemową jedność.

Problem różnicy pomiędzy teoretycznym i empirycznym poziomem wiedzy naukowej ma swe źródło w różnicy w sposobach idealnego odtwarzania obiektywnej rzeczywistości oraz w podejściach do budowania wiedzy systemowej. Stąd wynikają inne, już pochodne, różnice między tymi dwoma poziomami. W szczególności wiedzy empirycznej historycznie i logicznie przypisano funkcję gromadzenia, gromadzenia i pierwotnego racjonalnego przetwarzania danych z doświadczenia. Jego głównym zadaniem jest rejestrowanie faktów. Ich wyjaśnienie i interpretacja jest kwestią teorii.

Programy metodologiczne odegrały ważną rolę historyczną. Po pierwsze, pobudziły ogromną liczbę konkretnych badań naukowych, a po drugie, „zapaliły iskrę” pewnego zrozumienia struktury wiedzy naukowej. Okazało się, że było to coś w rodzaju „dwupiętrowego”. I choć „górne piętro” zajmowane przez teorię wydaje się być zbudowane na „niższym” (empiryka) i bez tego ostatniego powinno się rozpaść, z jakiegoś powodu nie ma między nimi bezpośrednich i wygodnych schodów. Z niższego piętra na górne można dostać się jedynie „skokiem” w dosłownym i w przenośni znaczeniu. Jednocześnie, niezależnie od tego, jak ważna jest baza, podstawa (niższy poziom empiryczny naszej wiedzy), decyzje decydujące o losach budynku wciąż podejmowane są na górze, w sferze teorii.

Obecnie standardowy model struktury wiedzy naukowej wygląda mniej więcej tak. Wiedza zaczyna się od ustalenia różnych faktów poprzez obserwację lub eksperymenty. Jeśli wśród tych faktów odkryje się pewną prawidłowość i powtarzalność, to w zasadzie można argumentować, że znaleziono prawo empiryczne, pierwotne uogólnienie empiryczne. I wszystko byłoby dobrze, ale z reguły prędzej czy później trafiają się fakty, które nie pasują do odkrytej prawidłowości. Tutaj z pomocą przychodzi twórczy intelekt naukowca, jego umiejętność mentalnego rekonstruowania znanej rzeczywistości tak, aby fakty wypadające z ogólnego szeregu ostatecznie ułożyły się w pewien jednolity schemat i przestały zaprzeczać odnalezionemu schematowi empirycznemu.

Tego nowego schematu nie da się już wykryć obserwacją, trzeba go wymyślić, stworzyć spekulatywnie, wstępnie przedstawić w formie teoretycznej hipotezy. Jeśli hipoteza okaże się skuteczna i usunie stwierdzoną sprzeczność między faktami, a jeszcze lepiej, pozwala przewidzieć uzyskanie nowych, nietrywialnych faktów, oznacza to, że narodziła się nowa teoria, odkryto prawo teoretyczne.

Wiadomo na przykład, że teoria ewolucji Karola Darwina przez długi czas była zagrożona upadkiem z powodu jej rozpowszechnienia w XIX wieku. poglądy na temat dziedziczności. Uważano, że przekazywanie cech dziedzicznych następuje na zasadzie „mieszania”, tj. cechy rodzicielskie są przekazywane potomstwu w jakiejś pośredniej formie. Jeśli skrzyżowasz, powiedzmy, rośliny z białymi i czerwonymi kwiatami, wówczas powstała hybryda powinna mieć różowe kwiaty. W większości przypadków jest to prawdą. Jest to empirycznie ustalone uogólnienie oparte na wielu całkowicie wiarygodnych faktach empirycznych.

Ale nawiasem mówiąc, wynikało z tego, że wszystkie cechy dziedziczne podczas krzyżowania powinny być uśrednione. Oznacza to, że każda, nawet najbardziej korzystna dla organizmu cecha, która pojawi się w wyniku mutacji (nagłej zmiany w strukturach dziedzicznych), musi z czasem zaniknąć i rozpuścić się w populacji. A to z kolei udowodniło, że dobór naturalny nie powinien działać! Brytyjski inżynier F. Jenkin udowodnił to ściśle matematycznie. Ten „koszmar Jenkina” nękał życie Karola Darwina od 1867 roku, lecz nigdy nie znalazł on przekonującej odpowiedzi. (Chociaż odpowiedź już została znaleziona. Darwin po prostu o tym nie wiedział.)

Faktem jest, że z uporządkowanego ciągu faktów empirycznych, które dają na ogół przekonujący obraz uśredniania cech dziedzicznych, uporczywie usuwane są nie mniej wyraźnie utrwalone fakty empiryczne innego rzędu. Podczas krzyżowania roślin o kwiatach czerwonych i białych, choć niezbyt często, nadal będą pojawiać się hybrydy o kwiatach czysto białych lub czerwonych. Jednak przy uśrednionym dziedziczeniu cech po prostu nie może się to zdarzyć - mieszając kawę z mlekiem, nie można uzyskać czarnego ani białego płynu! Gdyby Karol Darwin zwrócił uwagę na tę sprzeczność, jego sława z pewnością wzrosłaby dzięki sławie twórcy genetyki. Ale on nie zwrócił uwagi. Podobnie jak większość jego współczesnych, którzy uważali tę sprzeczność za nieistotną. I na próżno.

Przecież takie „wystające” fakty zepsuły całą wiarygodność empirycznej reguły o pośrednim charakterze dziedziczenia cech. Aby dopasować te fakty do ogólnego obrazu, potrzebny był jakiś inny schemat mechanizmu dziedziczenia. Nie została ona ujawniona poprzez bezpośrednie indukcyjne uogólnienie faktów i nie została poddana bezpośredniej obserwacji. Trzeba było to „widzieć umysłem”, odgadnąć, wyobrazić sobie i odpowiednio sformułować w formie teoretycznej hipotezy.

Problem ten, jak wiadomo, znakomicie rozwiązał G. Mendel. Istotę zaproponowanej przez niego hipotezy można wyrazić następująco: dziedziczenie nie ma charakteru pośredniego, lecz dyskretny. Cechy dziedziczne są przekazywane w odrębnych jednostkach (dziś nazywamy je genami). Dlatego przy przekazywaniu czynników dziedzicznych z pokolenia na pokolenie są one dzielone, a nie mieszane. Ten genialnie prosty schemat, który później rozwinął się w spójną teorię, wyjaśniał od razu wszystkie fakty empiryczne. Dziedziczenie znaków przebiega w trybie podziału, dlatego możliwe jest pojawienie się hybryd o znakach „niemieszalnych”. A obserwowane w większości przypadków „mieszanie” wynika z faktu, że z reguły za dziedziczenie cechy odpowiada nie jeden, a wiele genów, co „smaruje” rozszczepienie mendlowskie. Zasada doboru naturalnego została uratowana, „koszmar Jenkina” zniknął.

Tradycyjny model struktury wiedzy naukowej zakłada zatem ruch wzdłuż łańcucha: ustalanie faktów empirycznych - pierwotne uogólnienie empiryczne - wykrywanie faktów odbiegających od reguły - wymyślanie hipotezy teoretycznej z nowym schematem wyjaśniania - logiczna konkluzja (dedukcja) od hipotezy wszystkich zaobserwowanych faktów, co jest jej weryfikacją prawdziwości. Potwierdzenie hipotezy przekształca ją w prawo teoretyczne. Ten model wiedzy naukowej nazywa się hipotetyczno-dedukcyjnym. Uważa się, że w ten sposób skonstruowana jest większość współczesnej wiedzy naukowej.

Wstęp

Nauka jest jedną z głównych form wiedzy ludzkiej. Obecnie staje się coraz bardziej znaczącym i istotnym elementem rzeczywistości. Nauka nie byłaby jednak produktywna, gdyby nie posiadała tak rozwiniętego systemu metod i zasad poznania. To właśnie odpowiednio dobrana metoda w połączeniu z talentem naukowca pozwala mu zrozumieć różne zjawiska, poznać ich istotę, odkryć prawa i prawidłowości. Istnieje ogromna liczba metod, a ich liczba stale rośnie. Obecnie istnieje około 15 000 nauk i każda z nich ma swoje specyficzne metody i przedmiot badań.

Cel tej pracy- rozważ metody naturalnego poznania naukowego i dowiedz się, czym jest naturalna prawda naukowa. Aby osiągnąć ten cel, spróbuję dowiedzieć się:

1) Co to jest metoda.

2) Jakie istnieją metody poznania.

3) Jak są pogrupowane i sklasyfikowane.

4) Czym jest prawda.

5) Cechy prawdy absolutnej i względnej.

Metody wiedzy przyrodniczej

Wiedza naukowa to rozwiązywanie różnego rodzaju problemów pojawiających się w toku działalności praktycznej. Problemy pojawiające się w tym przypadku rozwiązuje się za pomocą specjalnych technik. Ten system technik nazywany jest zwykle metodą. metoda to zespół technik i operacji praktycznego i teoretycznego poznania rzeczywistości.

Każda nauka posługuje się innymi metodami, które zależą od charakteru problemów, które rozwiązuje. Wyjątkowość metod naukowych polega jednak na tym, że w każdym procesie badawczym zmienia się kombinacja metod i ich struktura. Dzięki temu powstają szczególne formy (strony) wiedzy naukowej, z których najważniejsze mają charakter empiryczny i teoretyczny.

Strona empiryczna (eksperymentalna). to zbiór faktów i informacji (ustalenie faktów, ich rejestracja, nagromadzenie) oraz ich opis (stwierdzenie faktów i ich pierwotna systematyzacja).

Strona teoretyczna wiąże się z wyjaśnianiem, uogólnianiem, tworzeniem nowych teorii, stawianiem hipotez, odkrywaniem nowych praw, przewidywaniem nowych faktów w ramach tych teorii. Za ich pomocą kształtuje się naukowy obraz świata, a tym samym realizuje się ideologiczna funkcja nauki.

Omówione powyżej środki i metody poznania są jednocześnie etapami rozwoju wiedzy naukowej. Zatem badania empiryczne, eksperymentalne zakładają cały system sprzętu doświadczalnego i obserwacyjnego (urządzeń, w tym urządzeń liczących, instalacji i przyrządów pomiarowych), za pomocą którego ustalane są nowe fakty. Badania teoretyczne polegają na pracy naukowców mającej na celu wyjaśnienie faktów (domniemanych – za pomocą hipotez, sprawdzonych i udowodnionych – za pomocą teorii i praw nauki) przy tworzeniu pojęć uogólniających dane. Obydwa razem sprawdzają to, co wiadomo w praktyce.

Metody nauk przyrodniczych opierają się na jedności jej strony empirycznej i teoretycznej. Są ze sobą powiązane i uzupełniają się. Ich luka, czyli nierównomierny rozwój zamyka drogę do prawidłowego poznania przyrody – teoria staje się bezcelowa, a doświadczenie staje się ślepe.

Metody nauk przyrodniczych można podzielić na następujące grupy:

1. Metody ogólne odnoszące się do dowolnego przedmiotu i dowolnej nauki. Są to różne metody, które umożliwiają połączenie wszystkich aspektów wiedzy, na przykład metoda wznoszenia się od abstrakcji do konkretu, jedność logiki i historii. Są to raczej ogólne filozoficzne metody poznania.

2. Metody prywatne - Są to specjalne metody, które działają albo tylko w obrębie określonej dziedziny nauki, albo poza dziedziną, z której pochodzą. Jest to metoda obrączkowania ptaków stosowana w zoologii. A metody fizyki stosowane w innych gałęziach nauk przyrodniczych doprowadziły do ​​​​powstania astrofizyki, geofizyki, fizyki kryształów itp. Do badania jednego przedmiotu często wykorzystuje się zespół powiązanych ze sobą metod prywatnych. Na przykład biologia molekularna wykorzystuje jednocześnie metody fizyki, matematyki, chemii i cybernetyki.

3. Metody specjalne dotyczą tylko jednej strony badanego przedmiotu lub określonej techniki badawczej: analizy, syntezy, indukcji, dedukcji. Metody specjalne obejmują również obserwację, pomiary, porównania i eksperymenty.

W naukach przyrodniczych specjalne metody nauce przywiązuje się ogromną wagę. Zastanówmy się nad ich istotą.

Obserwacja - Jest to celowy proces postrzegania obiektów rzeczywistości bez jakiejkolwiek ingerencji. Historycznie rzecz biorąc, metoda obserwacji rozwija się jako integralna część operacji pracy, która obejmuje ustalenie zgodności produktu pracy z planowanym modelem.

Obserwację jako metodę rozumienia rzeczywistości stosuje się albo tam, gdzie eksperyment jest niemożliwy lub bardzo trudny (w astronomii, wulkanologii, hydrologii), albo tam, gdzie zadaniem jest zbadanie naturalnego funkcjonowania lub zachowania obiektu (w etologii, psychologii społecznej itp.). ). Obserwacja jako metoda zakłada istnienie programu badawczego utworzonego na podstawie przeszłych przekonań, ustalonych faktów i przyjętych koncepcji. Szczególnymi przypadkami metody obserwacji są pomiar i porównanie.

Eksperyment - metoda poznania, za pomocą której bada się zjawiska rzeczywistości w kontrolowanych i kontrolowanych warunkach. Różni się od obserwacji ingerencją w badany obiekt. Prowadząc eksperyment, badacz nie ogranicza się do biernej obserwacji zjawisk, ale świadomie ingeruje w naturalny przebieg ich występowania, bezpośrednio wpływając na badany proces lub zmieniając warunki, w jakich proces ten zachodzi.

Specyfika eksperymentu polega również na tym, że w normalnych warunkach w przyrodzie procesy są niezwykle złożone i skomplikowane i nie da się ich w pełni kontrolować i kontrolować. Powstaje zatem zadanie zorganizowania badania, w którym możliwe byłoby prześledzenie przebiegu procesu w „czystej” formie. W tym celu eksperyment oddziela czynniki istotne od nieistotnych, co znacznie upraszcza sytuację. W rezultacie takie uproszczenie przyczynia się do głębszego zrozumienia zjawisk i stwarza możliwość kontrolowania kilku czynników i wielkości, które są istotne dla danego procesu.

Rozwój nauk przyrodniczych rodzi problem rygoru obserwacji i eksperymentu. Faktem jest, że potrzebują specjalnych narzędzi i urządzeń, które ostatnio stały się tak skomplikowane, że same zaczynają wpływać na obiekt obserwacji i eksperymentu, co w zależności od warunków nie powinno mieć miejsca. Dotyczy to przede wszystkim badań z zakresu fizyki mikroświata (mechanika kwantowa, elektrodynamika kwantowa itp.).

Analogia - metoda poznania, w której transfer wiedzy uzyskanej podczas rozpatrywania jednego przedmiotu następuje na inny, mniej zbadany i obecnie badany. Metoda analogii opiera się na podobieństwie obiektów pod względem szeregu cech, co pozwala uzyskać w pełni rzetelną wiedzę na temat badanego przedmiotu.

Stosowanie metody analogii w wiedzy naukowej wymaga pewnej ostrożności. Tutaj niezwykle ważne jest jasne określenie warunków, w jakich działa on najskuteczniej. Jednak w przypadkach, gdy możliwe jest opracowanie systemu jasno sformułowanych zasad przenoszenia wiedzy z modelu do prototypu, wyniki i wnioski uzyskane metodą analogii nabierają mocy dowodowej.

Modelowanie - metoda wiedzy naukowej polegająca na badaniu dowolnych obiektów poprzez ich modele. Pojawienie się tej metody spowodowane jest faktem, że czasami badany przedmiot lub zjawisko okazuje się niedostępne dla bezpośredniej interwencji podmiotu poznającego lub interwencja taka jest z wielu powodów niewłaściwa. Modelowanie polega na przeniesieniu działań badawczych na inny obiekt, pełniący funkcję substytutu interesującego nas obiektu lub zjawiska. Obiekt zastępczy nazywany jest modelem, a obiekt badawczy oryginałem lub prototypem. Model pełni w tym przypadku rolę substytutu prototypu, co pozwala uzyskać pewną wiedzę na jego temat.

Istotą modelowania jako metody poznania jest więc zastąpienie przedmiotu badań modelem, przy czym za wzór mogą posłużyć przedmioty pochodzenia zarówno naturalnego, jak i sztucznego. Umiejętność modelowania polega na tym, że model pod pewnymi względami odzwierciedla jakiś aspekt prototypu. Podczas modelowania bardzo ważne jest posiadanie odpowiedniej teorii lub hipotezy, która ściśle wskazuje granice i granice dopuszczalnych uproszczeń.

Współczesna nauka zna kilka rodzajów modelowania:

1) modelowanie przedmiotowe, w którym badania przeprowadza się na modelu odtwarzającym określone cechy geometryczne, fizyczne, dynamiczne lub funkcjonalne obiektu pierwotnego;

2) modelowanie symboliczne, w którym diagramy, rysunki i formuły pełnią rolę modeli. Najważniejszym rodzajem takiego modelowania jest modelowanie matematyczne, tworzone za pomocą matematyki i logiki;

3) modelowanie mentalne, w którym zamiast modeli znaków wykorzystuje się mentalne reprezentacje wizualne tych znaków i operacje na nich.

W ostatnim czasie upowszechnił się eksperyment modelowy z wykorzystaniem komputerów, które są zarówno środkiem, jak i przedmiotem badań eksperymentalnych, zastępując oryginał. W tym przypadku algorytm (program) funkcjonowania obiektu pełni rolę modelową.

Analiza - metoda wiedzy naukowej, która opiera się na procedurze mentalnego lub rzeczywistego podziału przedmiotu na jego części składowe. Celem rozczłonkowania jest przejście od badania całości do badania jej części.

Analiza jest organicznym elementem każdego badania naukowego i stanowi zazwyczaj jego pierwszy etap, kiedy badacz przechodzi od niezróżnicowanego opisu badanego obiektu do rozpoznania jego struktury, składu oraz właściwości i cech.

Synteza - Jest to metoda wiedzy naukowej, która opiera się na procedurze łączenia różnych elementów przedmiotu w jedną całość, system, bez którego prawdziwie naukowe poznanie tego przedmiotu nie jest możliwe. Synteza nie jest metodą konstruowania całości, ale metodą przedstawienia całości w postaci jedności wiedzy uzyskanej w drodze analizy. W syntezie nie chodzi tylko o unifikację, ale o uogólnienie cech obiektu. Przepisy uzyskane w wyniku syntezy włączane są do teorii przedmiotu, która wzbogacona i udoskonalona wyznacza ścieżkę nowych badań naukowych.

Wprowadzenie - metoda wiedzy naukowej polegająca na formułowaniu logicznego wniosku poprzez podsumowanie danych obserwacyjnych i eksperymentalnych (metoda konstruowania od szczegółowego do bardziej ogólnego).

Bezpośrednią podstawą wnioskowania indukcyjnego jest wniosek o ogólnych właściwościach wszystkich obiektów, oparty na obserwacji wystarczająco szerokiej gamy pojedynczych faktów. Zazwyczaj uogólnienia indukcyjne są postrzegane jako prawdy empiryczne lub prawa empiryczne.

Rozróżnia się indukcję całkowitą i niepełną. Indukcja zupełna buduje wniosek ogólny na podstawie badania wszystkich obiektów lub zjawisk danej klasy. W wyniku indukcji całkowitej uzyskany wniosek ma charakter wniosku wiarygodnego. Istota indukcji niezupełnej polega na tym, że buduje ona wniosek ogólny na podstawie obserwacji ograniczonej liczby faktów, jeśli wśród tych ostatnich nie ma takich, które zaprzeczają wnioskowi indukcyjnemu. Naturalnym jest zatem, że uzyskana w ten sposób prawda jest niepełna, otrzymujemy tu wiedzę probabilistyczną, która wymaga dodatkowego potwierdzenia.

Odliczenie - metoda wiedzy naukowej, która polega na przejściu od pewnych ogólnych przesłanek do konkretnych wyników i konsekwencji.

Wnioskowanie przez dedukcję konstruuje się według następującego schematu:

Wszystkie przedmioty klasy „A” mają właściwość „B”; przedmiot „a” należy do klasy „A”; Oznacza to, że „a” ma właściwość „B”. Generalnie dedukcja jako metoda poznania opiera się na znanych już prawach i zasadach. Dlatego metoda dedukcji nie pozwala nam uzyskać nowej, znaczącej wiedzy. Dedukcja jest jedynie sposobem identyfikacji konkretnej treści na podstawie wstępnej wiedzy.

Rozwiązanie każdego problemu naukowego polega na wysuwaniu najróżniejszych domysłów, założeń, a najczęściej mniej lub bardziej uzasadnionych hipotez, za pomocą których badacz stara się wyjaśnić fakty niepasujące do starych teorii. Hipotezy powstają w niepewnych sytuacjach, których wyjaśnienie staje się istotne dla nauki. Ponadto na poziomie wiedzy empirycznej (a także na poziomie jej wyjaśniania) często pojawiają się sądy sprzeczne. Aby rozwiązać te problemy, potrzebne są hipotezy.

Sherlock Holmes stosował podobne metody badawcze. W swoich badaniach stosował zarówno metody indukcyjne, jak i dedukcyjne. Zatem metoda indukcyjna opiera się na identyfikacji dowodów i najbardziej nieistotnych faktów, które później tworzą jeden, nierozerwalny obraz. Dedukcja opiera się na zasadzie: gdy jest już ogół – obraz popełnionego przestępstwa – wówczas szuka się konkretu – przestępcy, czyli od ogółu do szczegółu.

Hipoteza to jakiekolwiek założenie, przypuszczenie lub prognoza wysunięta w celu wyeliminowania sytuacji niepewności w badaniach naukowych. Zatem hipoteza nie jest wiedzą wiarygodną, ​​ale wiedzą prawdopodobną, której prawdziwość lub fałszywość nie została jeszcze ustalona.

Każda hipoteza musi być uzasadniona albo zdobytą wiedzą z danej nauki, albo nowymi faktami (niepewna wiedza nie służy uzasadnieniu hipotezy). Musi mieć właściwość wyjaśniania wszelkich faktów, które dotyczą danej dziedziny wiedzy, ich systematyzowania, a także faktów spoza tej dziedziny, przewidywania pojawienia się nowych faktów (np. hipoteza kwantowa M. Plancka wysunięta na początku XX wieku, doprowadziły do ​​powstania mechaniki kwantowej, elektrodynamiki kwantowej i innych teorii). Co więcej, hipoteza nie powinna być sprzeczna z istniejącymi faktami.

Hipotezę należy albo potwierdzić, albo odrzucić. Aby było to możliwe, musi posiadać właściwości falsyfikowalności i weryfikowalności. Fałszowanie - procedura ustalająca fałszywość hipotezy w wyniku testów eksperymentalnych lub teoretycznych. Wymóg falsyfikowalności hipotez oznacza, że ​​przedmiotem nauki może być jedynie wiedza zasadniczo falsyfikowalna. Wiedza niepodważalna (na przykład prawdy religii) nie ma nic wspólnego z nauką. Jednak same wyniki eksperymentów nie mogą obalić tej hipotezy. Wymaga to alternatywnej hipotezy lub teorii, która zapewni dalszy rozwój wiedzy. W przeciwnym razie pierwsza hipoteza nie zostanie odrzucona. Weryfikacja - proces ustalania prawdziwości hipotezy lub teorii poprzez testy empiryczne. Możliwa jest także weryfikowalność pośrednia, oparta na logicznych wnioskach z bezpośrednio zweryfikowanych faktów.

Wiedza naukowa inaczej nazywana jest badaniami naukowymi. Nauka jest nie tylko wynikiem badań naukowych, ale także samych badań

O złożoności wiedzy naukowej decyduje obecność w niej poziomów, metod i form wiedzy.

Poziomy wiedzy:

  1. empiryczny
  2. teoretyczny.

Badania empiryczne (z greckiego empeiria – doświadczenie) to wiedza eksperymentalna. Empiryczny poziom wiedzy naukowej charakteryzuje się bezpośrednim badaniem naprawdę istniejących obiektów zmysłowych. Na empirycznym poziomie strukturalnym wiedza jest wynikiem bezpośredniego kontaktu z „żywą” rzeczywistością poprzez obserwację i eksperyment.

Badania teoretyczne(z greckiej teorii - rozważać, badać) to system twierdzeń logicznych, obejmujący formuły matematyczne, diagramy, wykresy itp., Powstały w celu ustalenia praw zjawisk naturalnych, technicznych i społecznych. Do poziomu teoretycznego obejmują wszystkie formy i metody poznania, które zapewniają tworzenie, konstruowanie i rozwój teorii naukowej.

Na poziomie teoretycznym uciekają się do tworzenia pojęć, abstrakcji, idealizacji i modeli mentalnych, budują hipotezy i teorie oraz odkrywają prawa nauki.

Podstawowe formy wiedzy naukowej

  • dane,
  • problemy,
  • prawa empiryczne
  • hipotezy,
  • teorie.

Ich znaczenie polega na ukazaniu dynamiki procesu poznania w trakcie badania i badania dowolnego obiektu.

Oznacza to, że w rzeczywistości poznanie odbywa się w trzech etapach:

1) poszukiwanie, gromadzenie faktów naukowych w zakresie badanych zjawisk;

2) rozumienie zgromadzonych informacji, formułowanie hipotez naukowych, budowanie teorii;

3) eksperymentalne sprawdzenie teorii, obserwacje nieznanych wcześniej zjawisk przewidzianych przez teorię i potwierdzenie jej spójności.

Na poziomie empirycznym, poprzez obserwację i eksperyment, podmiot otrzymuje wiedzę naukową przede wszystkim w postaci faktów empirycznych.

Fakt - rzetelna wiedza stwierdzająca, że ​​zaszło określone zdarzenie, odkryto pewne zjawisko itp., ale nie wyjaśnia, dlaczego tak się stało (przykład faktu: przyspieszenie swobodnie spadającego ciała wynosi 9,81 m/s²)

Problem ma miejsce, gdy nowo odkrytych faktów nie można wyjaśnić i zrozumieć przy użyciu starych teorii

Prawo empiryczne(zjawisko stabilne, powtarzające się)- wynik uogólnienia, grupowania, systematyzacji faktów.

Przykład: wszystkie metale dobrze przewodzą prąd;

Na podstawie empirycznych uogólnień formułuje się hipotezę.

Hipoteza - jest to założenie, które pozwala wyjaśnić i ilościowo opisać obserwowane zjawisko . Hipoteza odnosi się do teoretycznego poziomu wiedzy .



Jeśli hipoteza zostanie potwierdzona, następuje odwrócenie od wiedzy probabilistycznej do wiedzy rzetelnej, tj. . w teorię.

Tworzenie teorii jest najwyższym i ostatecznym celem nauk podstawowych

Teoria reprezentuje system prawdziwej, już udowodnionej, potwierdzonej wiedzy o istocie zjawisk, najwyższa forma wiedzy naukowej.

Najważniejsze funkcje teorii: wyjaśnienia i prognozy.

Eksperyment jest kryterium prawdziwości hipotez i teorii naukowych.

Metody poznania naukowego.

Metoda naukowa odgrywa ważną rolę w wiedzy naukowej.

Przyjrzyjmy się najpierw, czym ogólnie jest metoda.

Metoda (z greckiego „sposób”, „sposób”)

W najszerszym tego słowa znaczeniu metoda rozumiana jest jako droga, droga do osiągnięcia celu.

Metoda jest formą praktycznego i teoretycznego opanowania rzeczywistości, opartą na wzorcach zachowania badanego obiektu.

Każda forma działania opiera się na określonych metodach, których wybór w istotny sposób determinuje jej wynik. Metoda optymalizuje działalność człowieka, wyposaża człowieka w najbardziej racjonalne sposoby organizacji jego działań.

Metoda naukowa- jest to organizacja środków poznania (urządzeń, narzędzi, technik, operacji itp.) w celu osiągnięcia prawdy naukowej.

Klasyfikacja metod według poziomów wiedzy:

Empiryczny poziom poznania obejmuje metody: obserwacja, eksperyment, modelowanie podmiotowe, pomiar, opis uzyskanych wyników, porównanie itp.

Obserwacja jest zmysłowym odbiciem przedmiotów i zjawisk, podczas którego człowiek otrzymuje podstawowe informacje o otaczającym go świecie. Najważniejsze w obserwacji jest to, aby w trakcie badań nie wprowadzać żadnych zmian w badanej rzeczywistości. .

Obserwacja zakłada istnienie określonego planu badawczego, założenie podlegające analizie i weryfikacji. Wyniki obserwacji zapisuje się w opisie, zwracając uwagę na znaki i właściwości badanego obiektu, które są przedmiotem badań. Opis musi być jak najbardziej kompletny, dokładny i obiektywny. Na ich podstawie tworzone są empiryczne uogólnienia, systematyzacja i klasyfikacja.

Eksperyment celowy i ściśle kontrolowany wpływ badacza na obiekt lub zjawisko będące przedmiotem zainteresowania w celu zbadania jego różnych aspektów, powiązań i zależności. W tym przypadku przedmiot lub zjawisko zostaje umieszczone w specjalnych, specyficznych i zmiennych warunkach. Specyfika eksperymentu polega również na tym, że pozwala zobaczyć obiekt lub proces w czystej postaci

Na teoretyczny poziom poznania składają się metody: formalizacja, abstrakcja, idealizacja, aksjomatyzacja, hipotetyczno-dedukcyjna itp.

Klasyfikacja metod według obszaru zastosowania:

1. uniwersalny - zastosowanie we wszystkich sektorach działalności człowieka

  • metafizyczny
  • dialektyczny

2. ogólnonaukowe- zastosowanie we wszystkich dziedzinach nauki:

  • Wprowadzenie - sposób rozumowania lub sposób zdobywania wiedzy, w którym wyciąga się ogólny wniosek z uogólnienia poszczególnych odniesień (Francis Bacon).

· Odliczenie - forma wnioskowania od ogółu do szczegółu i jednostki (Rene Descartes).

· Analiza- metoda wiedzy naukowej, która opiera się na procedurze mentalnego lub rzeczywistego podziału obiektu na jego części składowe i ich odrębnego badania.

· Synteza- metoda wiedzy naukowej, która opiera się na połączeniu elementów zidentyfikowanych w drodze analizy.

· Porównanie- metoda wiedzy naukowej, która pozwala ustalić podobieństwa i różnice badanych obiektów

· Klasyfikacja- metoda wiedzy naukowej, która łączy w jedną klasę obiekty możliwie najbardziej podobne do siebie pod względem istotnych cech.

· Analogia- metoda poznania, w której występowanie podobieństwa, zbieżności cech obiektów nieidentycznych pozwala przypuszczać o ich podobieństwie w innych cechach.

· Abstrakcja– sposób myślenia polegający na abstrahowaniu od nieistotnych, nieistotnych dla podmiotu poznania właściwości i relacji badanego obiektu, przy jednoczesnym eksponowaniu tych jego właściwości, które wydają się ważne i istotne w kontekście badania.

· Modelowanie– metoda zastąpienia badanego obiektu czymś do niego podobnym pod względem szeregu właściwości i cech interesujących badacza. We współczesnych badaniach stosuje się różne rodzaje modelowania: przedmiotowe, mentalne, symboliczne, komputerowe.

3. Specyficzne metody naukowe - zastosowanie w niektórych gałęziach nauki.

Różnorodność metod wiedzy naukowej stwarza trudności w ich zastosowaniu i zrozumieniu ich roli. Problemy te rozwiązuje specjalna dziedzina wiedzy – metodologia.

Metodologia- doktryna metod. Jego celem jest badanie pochodzenia, istoty, skuteczności i innych cech metod poznania.

Metodologia wiedzy naukowej - doktryna zasad konstrukcji, form i metod działalności naukowej i poznawczej.

Charakteryzuje elementy badania naukowego - jego przedmiot, przedmiot analizy, zadanie (lub problem) badawczy, zestaw narzędzi badawczych niezbędnych do rozwiązania tego typu problemu, a także tworzy wyobrażenie o sekwencji działań badacza w procesie rozwiązywania problemu.

Ewolucyjne i rewolucyjne okresy rozwoju nauk przyrodniczych. Definicja rewolucji naukowej, jej etapy i rodzaje.

Rozwój nauk przyrodniczych to nie tylko monotonny proces ilościowego gromadzenia wiedzy o otaczającym świecie przyrody (etap ewolucyjny).

W rozwoju nauki zdarzają się punkty zwrotne (rewolucje naukowe), które radykalnie zmieniają dotychczasową wizję świata.

Samo pojęcie „rewolucji” wskazuje na radykalną zmianę istniejących wyobrażeń o naturze jako całości; pojawienie się sytuacji kryzysowych w wyjaśnianiu faktów.

Rewolucja naukowa to naturalny i okresowo powtarzający się w historii proces jakościowego przejścia od jednego sposobu poznania do drugiego, odzwierciedlający głębsze powiązania i relacje natury.

Rewolucje naukowe mogą rozszerzyć swoje znaczenie daleko poza konkretny obszar, na którym miały miejsce.

Wyróżnić ogólne rewolucje naukowe i szczegółowe rewolucje naukowe.

Ogólne naukowe: Heliocentryczny system świata N. Kopernika, mechanika klasyczna Newtona, teoria ewolucji Darwina, pojawienie się mechaniki kwantowej itp.

Prywatny naukowiec:- pojawienie się mikroskopu w biologii, teleskopu w astronomii.

Rewolucja naukowa ma swoją strukturę i główne etapy rozwoju.

  1. ukształtowanie się bezpośrednich przesłanek (empirycznych, teoretycznych, wartościowych) dla nowego sposobu poznania w głębi starego.
  2. bezpośredni rozwój nowego sposobu poznania.
  3. akceptacja jakościowo nowego sposobu poznania .

Naukowy obraz świata (nkm) - jedno z podstawowych pojęć w naukach przyrodniczych.

W swoim rdzeniu naukowy obraz świata - jest to szczególna forma systematyzacji wiedzy, jakościowego uogólnienia i ideologicznej syntezy różnych teorii naukowych. Jest to całościowy system idei dotyczących ogólnych właściwości i wzorców natury.

Naukowy obraz świata obejmuje najważniejsze osiągnięcia nauki, które tworzą określone rozumienie świata i miejsca w nim człowieka.

Podstawowe pytania, na które odpowiada naukowy obraz świata:

O materii

O ruchu

O interakcji

O przestrzeni i czasie

O przyczynowości, prawidłowości i przypadku

O kosmologii (ogólna budowa i pochodzenie świata

Będąc integralnym systemem idei o ogólnych właściwościach i wzorach obiektywnego świata, naukowy obraz świata istnieje jako złożona struktura, obejmująca jako jego części składowe ogólny naukowy obraz świata, przyrodniczy obraz świata i obrazy świata poszczególnych nauk (fizycznych, biologicznych, geologicznych itp.).

Podstawą współczesnego naukowego obrazu świata jest podstawowa wiedza zdobyta przede wszystkim z zakresu fizyki. Jednak w ostatnich dziesięcioleciach ubiegłego stulecia coraz bardziej ugruntowywała się opinia, że ​​biologia zajmuje wiodącą pozycję we współczesnym naukowym obrazie świata. Idee biologii stopniowo nabierają charakteru uniwersalnego i stają się podstawowymi zasadami innych nauk. W szczególności we współczesnej nauce taką uniwersalną ideą jest idea rozwoju, której przenikanie do kosmologii, fizyki, chemii, antropologii, socjologii itp. doprowadziło do istotnej zmiany w poglądach ludzi na świat.

HISTORYCZNE ETAPY POZNAWANIA PRZYRODY

Według historyków nauki w rozwoju nauk przyrodniczych można wyróżnić 4 etapy:

1. Filozofia przyrody (przedklasyczna) – VI wiek. p.n.e. – II wiek n.e

2. analityczny (klasyczny) – XVI-XIX w.)

3. syntetyczne (nieklasyczne) – koniec XIX w. – XX w

4. całka – różniczkowa (ponieklasyczna) – koniec XX w. – początek XXI w.

W erze prymitywnej gromadziła się spontaniczna wiedza empiryczna o naturze.

Świadomość człowieka tej epoki była dwupoziomowa:

· poziom zwykłej, codziennej wiedzy;

· Poziom tworzenia mitów jako forma systematyzacji wiedzy codziennej .

Formowanie się pierwszego naukowego obrazu świata następuje w kulturze starożytnej Grecji - naturalnego filozoficznego obrazu świata.

Do najważniejszych odkryć renesansu należą: eksperymentalne badania praw ruchu planet, stworzenie heliocentrycznego układu świata przez N. Kopernika, badanie praw spadania ciał, prawa bezwładności i zasady względności Galileusza.

Druga połowa XVII wieku- prawa mechaniki i prawo powszechnego ciążenia Newtona.

Ideałem wiedzy naukowej XVII-XIX w. była mechanika.

W XVII-XVIII w. w matematyce rozwija się teoria wielkości nieskończenie małych (Newton, Leibniz), R. Descartes tworzy geometrię analityczną, M.V. Łomonosow – teoria kinetyki molekularnej. Kosmogoniczna teoria Kanta-Laplace’a zyskuje dużą popularność, co przyczynia się do wprowadzenia idei rozwoju do nauk przyrodniczych, a następnie do nauk społecznych.

Na przełomie XVIII i XIX w. częściowo wyjaśniono naturę elektryczności (prawo Coulomba).

Pod koniec XVIII – pierwsza połowa XIX wieku. w geologii powstaje teoria rozwoju Ziemi (C. Lyell), w biologii teoria ewolucji Zh.B. Lamarcka rozwijają się takie nauki jak paleontologia (J. Cuvier) i embriologia (K.M. Baro).

W 19-stym wieku. stworzono teorię komórkową Schwanna i Schleidena, doktrynę ewolucyjną Darwina oraz układ okresowy pierwiastków D.I. Mendelejew, teoria elektromagnetyczna Maxwella.

Do wybitnych odkryć eksperymentalnych w fizyce końca XIX wieku należą: odkrycie elektronu, podzielność atomu, eksperymentalne odkrycie fal elektromagnetycznych, odkrycie promieni rentgenowskich, promieni katodowych itp.

FIZYCZNY OBRAZ ŚWIATA

Słowo „fizyka” pojawiło się w czasach starożytnych. W tłumaczeniu z języka greckiego oznacza „naturę”.

Fizyka jest podstawą wszystkich nauk przyrodniczych.

Fizyka - nauka przyrodnicza badająca najprostsze i jednocześnie najbardziej ogólne właściwości świata materialnego.

W ujęciu współczesnym:

  • najprostsze to tzw. elementy pierwotne: cząstki elementarne, pola, atomy, cząsteczki itp.
  • najbardziej ogólne właściwości materii - ruch, przestrzeń i czas, masa, energia itd.

Oczywiście fizyka bada również bardzo złożone zjawiska i obiekty. Ale podczas nauki kompleks zostaje zredukowany do prostego, specyficznego do ogólnego.

Do najbardziej ogólnych, najważniejszych podstawowych pojęć fizycznego opisu przyrody zalicza się materię, ruch, przestrzeń i czas.

Materiał(łac. Materia – substancja) jest kategorią filozoficzną służącą do określenia rzeczywistości obiektywnej, która odzwierciedla się w naszych wrażeniach, istniejących niezależnie od nich.” (Dzieła Lenina V.I. Kompletne. T.18. P.131.)

Jedna ze współczesnych definicji materii:

Materiał– nieskończony zbiór wszystkich obiektów i systemów współistniejących w świecie, całość ich właściwości i powiązań, relacji i form ruchu.

Podstawą współczesnych pomysłów naukowych na temat budowy materii jest idea jej złożonej organizacji systemowej.

Na obecnym etapie rozwoju nauk przyrodniczych badacze wyróżniają:

rodzaje materii: materia, pole fizyczne i próżnia fizyczna.

Substancja – główny rodzaj materii, która ma masę spoczynkową (cząstki elementarne, atomy, cząsteczki i to, co jest z nich zbudowane);

Pole fizyczne - szczególny rodzaj materii zapewniający fizyczne oddziaływanie obiektów materialnych i ich układów (elektromagnetycznych, grawitacyjnych).

Fizyczna próżnia - nie pustka, ale szczególny stan materii, jest to najniższy stan energetyczny pola kwantowego. Nieustannie podlega złożonym procesom związanym z ciągłym pojawianiem się i znikaniem tzw. cząstek „wirtualnych”.

Różnica między materią a polem nie jest absolutna, a przechodząc do mikroobiektów wyraźnie ujawnia się jej względność

Nowoczesna nauka wyróżnia się na świecie trzy poziomy strukturalne.

Mikroświat są to cząsteczki, atomy, cząstki elementarne, świat niezwykle małych, nie bezpośrednio obserwowalnych mikroobiektów, których wymiar przestrzenny liczony jest od 10 -8 do 10 -16 cm, a czas życia od nieskończoności do 10 -24 s .

Makroświat - świat makroobiektów, których wymiary są porównywalne ze skalą ludzkiego doświadczenia, wielkości przestrzenne wyrażane są w milimetrach, centymetrach i kilometrach, a czas - w sekundach, minutach, godzinach, latach.

Megaświat - są to planety, gwiazdy, galaktyki, Wszechświat, świat ogromnych kosmicznych skal i prędkości, w których odległość mierzy się w latach świetlnych, a czas życia obiektów kosmicznych mierzy się w milionach i miliardach lat.

I choć poziomy te rządzą się swoimi specyficznymi prawami, mikro-, makro- i mega-światy są ze sobą ściśle powiązane.

Mechanistyczny obraz świata ( MKM)

Pierwszy przyrodniczo-naukowy obraz świata powstał na podstawie badań najprostszej, mechanicznej formy ruchu materii. Zajmuje się badaniem praw ruchu ciał ziemskich i niebieskich w przestrzeni i czasie. Później, gdy te prawa i zasady zostały przeniesione na inne zjawiska i procesy, stały się podstawą mechanistycznego obrazu świata.
Analiza zjawisk fizycznych makrokosmosu opiera się na koncepcji mechaniki klasycznej.

Nauka zawdzięcza stworzenie mechaniki klasycznej Newtonowi, ale podstawy dla niej przygotowali Galileusz i Kepler.

Mechanika klasyczna opisuje ruchy makrociał z prędkościami znacznie mniejszymi niż prędkość światła.

Statyka (nauka o równowadze) zaczęła się rozwijać wcześniej niż inne gałęzie mechaniki (starożytność, Archimedes: „daj mi punkt podparcia, a wywrócę Ziemię do góry nogami”).

W XVII wieku stworzono naukowe podstawy dynamiki(badanie sił i ich interakcji), a wraz z nim cała mechanika.

Za twórcę dynamiki uważa się G. Galileusza.

Galileo Galilei(1564-1642). Jeden z założycieli współczesnych nauk przyrodniczych Posiada: dowód obrotu Ziemi, odkrycie zasady względności ruchu i prawa bezwładności, praw swobodnego spadania ciał i ich ruchu po pochyłej płaszczyźnie, prawa dodawania ruchów i zachowanie wahadła matematycznego. Wynalazł także teleskop i przy jego pomocy badał krajobraz Księżyca, odkrył satelity Jowisza, plamy na Słońcu i fazy Wenus.

Podstawy nowej mechanistycznej nauki przyrodniczej położono w naukach G. Galileo. Jest właścicielem wyrażenia „Księga natury jest napisana językiem matematyki”. Wprowadził pojęcie „eksperymentu myślowego” .

Główną zasługą Galileusza jest to, że jako pierwszy zastosował metodę eksperymentalną do badania przyrody, łącznie z pomiarami badanych wielkości i matematycznym przetwarzaniem wyników pomiarów.

Najbardziej podstawowym problemem, który ze względu na swoją złożoność pozostaje nierozwiązany przez tysiące lat, jest problem ruchu (A. Einstein).

Przed Galileuszem ogólnie przyjęte w nauce rozumienie ruchu rozwinął Arystoteles i sprowadził do następującej zasady: ciało porusza się tylko w obecności zewnętrznego wpływu, a jeśli ten wpływ ustanie, ciało się zatrzyma . Galileusz pokazał, że ta arystotelesowska zasada jest błędna. Zamiast tego Galileusz sformułował zupełnie inną zasadę, którą później nazwano zasadą (prawem) bezwładności.

Zasada bezwładności (pierwsza zasada mechaniki Newtona): punkt materialny, gdy nie działają na niego żadne siły (lub działają na niego siły wzajemnie zrównoważone), znajduje się w stanie spoczynku lub ruchu jednostajnego liniowego.

Układ inercyjny- układ odniesienia, w którym obowiązuje zasada bezwładności.

Zasada względności Galileusza- We wszystkich układach inercjalnych obowiązują te same prawa mechaniki.Żadne eksperymenty mechaniczne przeprowadzane w jakimś inercjalnym układzie odniesienia nie są w stanie określić, czy dany układ jest w spoczynku, czy też porusza się ruchem jednostajnym i prostoliniowym.

Galileusz napisał: „...w kabinie statku poruszającego się równomiernie i bez kołysania nie wykryjecie na podstawie żadnego z otaczających zjawisk ani niczego, co wam się przydarza, czy statek się porusza, czy stoi w miejscu”.

W tłumaczeniu na dzisiejszy język jasne jest, że jeśli śpisz na drugiej koi w równomiernie jadącym wagonie, to trudno ci zrozumieć, czy się poruszasz, czy tylko się kołyszesz. Ale… gdy tylko pociąg zwolni (nierówny ruch z ujemnym przyspieszeniem!) i odlecisz z półki… wtedy wyraźnie powiesz – jechaliśmy.

Tworzenie podstaw mechaniki klasycznej kończy się pracami I. Newtona, który sformułował jego główne prawa i odkrył prawo powszechnego ciążenia w dziele „Matematyczne zasady filozofii naturalnej” (1687)

Wśród odkryć Newtona (1643-1727): słynne prawa dynamiki, prawo powszechnego ciążenia, stworzenie (jednocześnie z Leibnizem) nowych metod matematycznych - rachunku różniczkowego i całkowego, które stały się podstawą wyższej matematyki; wynalezienie teleskopu zwierciadlanego, odkrycie składu widmowego światła białego itp.

I. Prawa mechaniki Newtona

  1. każde ciało utrzymuje stan spoczynku lub prostoliniowy ruch jednostajny, dopóki nie zostanie zmuszone do jego zmiany pod wpływem pewnych sił(jest to zasada bezwładności sformułowana po raz pierwszy przez Galileusza);
  2. przyspieszenie (a) uzyskane przez ciało pod działaniem jakiejś siły (f) jest wprost proporcjonalne do tej siły i odwrotnie proporcjonalne do masy ciała (m);
  1. działania dwóch ciał na siebie są zawsze równe pod względem wielkości i skierowane w przeciwnych kierunkach. (jest to prawo równości akcji i reakcji).

fa 1 =- fa 2

Teoria grawitacji Newtona ma ogromne znaczenie dla zrozumienia zjawisk makrokosmosu. Ostateczne sformułowanie prawa powszechnego ciążenia miało miejsce w roku 1687.

Prawo grawitacji Newtona:

dowolne dwie cząstki materiału przyciągają się do siebie z siłą wprost proporcjonalną do iloczynu ich mas i odwrotnie proporcjonalną do kwadratu odległości między nimi.

F=G.(m 1 .m 2 /r 2)

Wszystkie ciała spadają na powierzchnię Ziemi pod wpływem jej pola grawitacyjnego z tym samym przyspieszeniem swobodnego spadania g=9,8 m/s 2 .

Kluczowymi pojęciami w fizyce Newtona są pojęcia przestrzeni absolutnej i czasu absolutnego, które są jak pojemniki ciał materialnych i procesów i nie zależą tylko od tych ciał i procesów, ale także od siebie nawzajem.

Zatem główne idee mechaniki klasycznej to:

  1. istnieją ciała, które powinny posiadać właściwość masy;
  2. masy przyciągają się (prawo powszechnego ciążenia);
  3. ciała mogą utrzymywać swój stan – spoczywać lub poruszać się równomiernie, nie zmieniając kierunku ruchu (prawo bezwładności, zwane także zasadą względności);
  4. gdy na ciała działają siły, zmieniają one swój stan: albo przyspieszają, albo zwalniają (druga zasada dynamiki Newtona);
  5. działanie sił powoduje jednakową i przeciwną reakcję (trzecie prawo Newtona).

Rezultatem rozwoju mechaniki klasycznej było stworzenie jednolitej mechanistyczny obraz świata, która dominowała od drugiej połowy XVII wieku aż do rewolucji naukowej na przełomie XIX i XX wieku.

Mechanika w tym czasie była uważana za uniwersalną metodę rozumienia otaczających zjawisk i ogólnie za standard każdej nauki. Mechanika jest w tym okresie liderem nauk przyrodniczych.

Mechanika klasyczna przedstawiała świat w postaci gigantycznego mechanizmu, wyraźnie funkcjonującego w oparciu o jego odwieczne i niezmienne prawa

Doprowadziło to do pragnienia kompletnego systemu wiedzy, który uchwyci prawdę w jej ostatecznej formie.

W tym absolutnie przewidywalnym świecie żywy organizm rozumiany był jako mechanizm.

Podstawowe założenia naukowe mechanistycznego obrazu świata:

1. Jedyną formą materii jest substancja składająca się z dyskretnych cząstek (korpuskuł) o skończonych objętościach, jedyną formą ruchu jest ruch mechaniczny w pustej trójwymiarowej przestrzeni;

2. przestrzeń absolutna i czas absolutny;

3. Trzy zasady dynamiki Newtona rządzą ruchem ciał;

4. wyraźny związek przyczynowo-skutkowy zdarzeń (tzw. determinizm Laplace'a);

5. Równania dynamiki są odwracalne w czasie, to znaczy nie ma dla nich znaczenia, gdzie proces przebiega od chwili obecnej – do przyszłości czy przeszłości.

Mechanika klasyczna zapewniła jasne wytyczne w rozumieniu podstawowych kategorii – przestrzeni, czasu i ruchu materii.

Elektromagnetyczny obraz świata ( EMKM)

We wstępie do swojego słynnego dzieła „Matematyczne zasady filozofii naturalnej” I. Newton wyraził następujące wskazówki na przyszłość: Byłoby pożądane wyprowadzenie innych zjawisk naturalnych z zasad mechaniki...

Wielu przyrodników, podążając za Newtonem, próbowało wyjaśnić różnorodne zjawiska naturalne w oparciu o zasady mechaniki. Z triumfu praw Newtona, które uważano za uniwersalne i uniwersalne, wiarę w sukces czerpali naukowcy zajmujący się astronomią, fizyką i chemią.

Za kolejne potwierdzenie podejścia Newtona do zagadnienia budowy świata fizycy początkowo uznali odkrycie dokonane przez francuskiego inżyniera wojskowego, Wisior Charlesa Auguste'a(1736-1806). Okazało się, że dodatnie i ujemne ładunki elektryczne przyciągają się wzajemnie wprost proporcjonalnie do wielkości ładunków i odwrotnie proporcjonalnie do kwadratu odległości między nimi.

Prace w dziedzinie elektromagnetyzmu zapoczątkowały upadek mechanistycznego obrazu świata.

W XIX wieku fizycy uzupełnili mechanistyczny obraz świata elektromagnetycznym. Zjawiska elektryczne i magnetyczne były im znane od dawna, ale badano je oddzielnie. Ich dalsze badania wykazały, że istnieje między nimi głęboki związek, co zmusiło naukowców do poszukiwania tego powiązania i stworzenia jednolitej teorii elektromagnetycznej.

Angielski chemik i fizyk Michael Faraday(1791-1867) wprowadzony do nauki w 30 XIX wieku. pojęcie pole fizyczne(pole elektromagnetyczne). Udało mu się wykazać eksperymentalnie, że istnieje bezpośredni dynamiczny związek pomiędzy magnetyzmem i elektrycznością. Tym samym jako pierwszy połączył elektryczność i magnetyzm i uznał je za jedną i tę samą siłę natury. W rezultacie w naukach przyrodniczych zaczęto dochodzić do wniosku, że oprócz materii w przyrodzie istnieje także pole.

Według Faradaya aktywnej i stale poruszającej się materii nie można przedstawić w postaci atomów i pustki, materia jest ciągła, atomy są jedynie skupiskami linii pola.

Pole elektromagnetyczne to szczególna forma materii, poprzez którą zachodzi interakcja pomiędzy cząstkami naładowanymi elektrycznie.

Matematycznego rozwinięcia idei Faradaya podjął się wybitny angielski naukowiec Jamesa Clerka Maxwella(1831-1879). Żyje w drugiej połowie XIX wieku. Na podstawie eksperymentów Faradaya opracował teorię pola elektromagnetycznego.

Wprowadzenie przez Faradaya pojęcia pola „elektromagnetycznego” i matematyczna definicja jego praw, wyrażona w równaniach Maxwella, były największymi wydarzeniami w fizyce od czasów Galileusza i Newtona.

Jednak aby teoria Maxwella stała się własnością fizyki, potrzebne były nowe wyniki. Niemiecki fizyk odegrał decydującą rolę w zwycięstwie teorii Maxwella Heinricha Rudolfa Hertza(1857-1894). W 1887 r. G. Hertz odkrył eksperymentalnie fale elektromagnetyczne.

Udało mu się także udowodnić podstawową tożsamość uzyskanych zmiennych pól elektromagnetycznych i fal świetlnych.

Po eksperymentach Hertza w fizyce ugruntowała się koncepcja pola jako obiektywnie istniejącej rzeczywistości fizycznej. Materia i pole różnią się właściwościami fizycznymi: cząstki materii mają masę spoczynkową, ale cząstki pola nie. Substancja i pole różnią się stopniem przepuszczalności: substancja jest lekko przepuszczalna, a pole jest całkowicie przepuszczalne. Prędkość propagacji pola jest równa prędkości światła, a prędkość ruchu cząstek jest o kilka rzędów wielkości mniejsza.

Więc, do końca XIX wieku. fizyka doszła do wniosku, że materia istnieje w dwóch postaciach: materii dyskretnej i pola ciągłego.

Później, podczas badań mikroświata, kwestionowano pozycję materii i pola jako niezależnych typów materii, niezależnych od siebie.

Na etapie rozwoju mechaniki klasycznej założono, że zachodzi oddziaływanie ciał (na przykład grawitacyjne) natychmiast. Zastosowano zasadę działania dalekiego zasięgu.

Daleki zasięg - oddziaływanie ciał w fizyce, które można przeprowadzić natychmiastowo, bezpośrednio w pustej przestrzeni.

Bliskość - oddziaływanie ciał fizycznych poprzez pewne pola stale rozmieszczone w przestrzeni.

A. Teoria względności Einsteina (1879-1955).

Z przekształceń Galileusza wynika, że ​​przy przejściu z jednego układu inercjalnego do drugiego, takie wielkości jak czas, masa, przyspieszenie, siła pozostają niezmienione, te. niezmiennik, co znajduje odzwierciedlenie w zasadzie względności G. Galileo.

Po stworzeniu teorii pola elektromagnetycznego i doświadczalnym udowodnieniu jego realności, fizyka stanęła przed zadaniem sprawdzenia, czy zasada względności ruchu (sformułowana kiedyś przez Galileusza) ma zastosowanie do zjawisk właściwych polu elektromagnetycznemu.

Zasada względności Galileusza dotyczyła zjawisk mechanicznych. We wszystkich układach inercjalnych (tj. poruszających się względem siebie prostoliniowo i równomiernie) obowiązują te same prawa mechaniki. Ale czy zasada ta jest ustalona dla mechanicznych ruchów obiektów materialnych, dotyczy zjawisk niemechanicznych, zwłaszcza tych reprezentowanych przez postać polową materii, w szczególności zjawisk elektromagnetycznych?

Duży wkład w rozwiązanie tego problemu wniosły badania natury światła i praw jego propagacji. W wyniku eksperymentów Michelsona pod koniec XIX wieku. odkryto, że prędkość światła w próżni jest zawsze taka sama (300000 km/s) we wszystkich układach odniesienia i nie zależy od ruchu źródła światła i odbiornika.

Szczególna teoria względności (STR).

Nowa teoria przestrzeni i czasu. Opracowany przez A. Einsteina w 1905 roku.

Główną ideą teorii względności jest nierozerwalny związek między pojęciami „materii, przestrzeni i czasu”.

SRT uwzględnia ruch ciał z bardzo dużymi prędkościami (bliskimi prędkości światła, równej 300 000 km/s)

SRT opiera się na dwóch zasadach lub postulatach.

1. Wszystkie prawa fizyczne muszą wyglądać tak samo we wszystkich inercjalnych układach współrzędnych;

2. Prędkość światła w próżni nie zmienia się wraz ze zmianą stanu ruchu źródła światła.

Teoria względności wynika z postulatów SRT długość, czas i masa, tj. ich zależność od układu odniesienia.

Konsekwencje STO

1. Istnieje maksymalna prędkość transmisji wszelkich interakcji i sygnałów z jednego punktu przestrzeni do drugiego. Jest równa prędkości światła w próżni.

2. Nie da się uznać przestrzeni i czasu za niezależne od siebie własności świata fizycznego.

Przestrzeń i czas są ze sobą powiązane i tworzą jeden czterowymiarowy świat (kontinuum czasoprzestrzenne Minkowskiego), będący jego projekcjami. O właściwościach kontinuum czasoprzestrzennego (metryki Świata, jego geometrii) decyduje rozkład i ruch materii

3. Wszystkie układy inercjalne są równe. Dlatego nie ma preferowanego układu odniesienia, czy to Ziemia, czy eter.

Do czego prowadzi ruch ciał z prędkościami bliskimi prędkości światła efekty relatywistyczne: spowolnienie upływu czasu i zmniejszenie długości szybko poruszających się ciał; istnienie maksymalnej prędkości ruchu ciała (prędkość światła); względność pojęcia jednoczesności (dwa zdarzenia zachodzą jednocześnie według zegara w jednym układzie odniesienia, ale w różnych momentach czasu według zegara w innym układzie odniesienia).

Ogólna teoria względności (GR)

Jeszcze bardziej radykalne zmiany w doktrynie przestrzeni i czasu nastąpiły w związku z powstaniem ogólnej teorii względności, zwanej często nową teorią grawitacji, zasadniczo różniącej się od klasycznej teorii Newtona.

Zgodnie z ogólną teorią względności, która uzyskała pełną formę w 1915 roku w pracach A. Einsteina, o właściwościach czasoprzestrzeni decydują działające w niej pola grawitacyjne. Ogólna teoria względności opisuje grawitację jako wpływ materii fizycznej na właściwości geometryczne czasoprzestrzeni, a właściwości te wpływają na ruch materii i inne właściwości materii.

GTR opiera się na dwóch postulatach SRT i formułuje postulat trzeci –

zasada równoważności mas bezwładnościowych i grawitacyjnych- stwierdzenie, według którego pole grawitacyjne w małym obszarze przestrzeni i czasu jest identyczne w swoim przejawie z przyspieszonym układem odniesienia.

Najważniejszym wnioskiem Ogólnej Teorii Względności jest twierdzenie, że charakterystyki geometryczne (przestrzenne) i czasowe zmieniają się w polach grawitacyjnych, a nie tylko podczas poruszania się z dużymi prędkościami.

Z punktu widzenia ogólnej teorii względności przestrzeń nie ma stałej (zerowej) krzywizny. Zakrzywienie przestrzeni jest wyznaczane przez pole grawitacyjne.

Einstein znalazł ogólne równanie pola grawitacyjnego, które w klasycznym przybliżeniu zamieniło się w prawo ciążenia Newtona.

Rozważane jest eksperymentalne potwierdzenie ogólnej teorii względności: zmiana orbity Merkurego, załamanie promieni świetlnych w pobliżu Słońca.

W ramach ogólnej teorii względności Einsteina uważa się, że o strukturze czasoprzestrzeni decyduje rozkład mas materii. Zatem w mechanice klasycznej przyjmuje się, że gdyby wszystkie rzeczy materialne nagle zniknęły, wówczas pozostałaby przestrzeń i czas. Według teorii względności przestrzeń i czas zanikną wraz z materią.

Podstawowe pojęcia i zasady elektromagnetycznego obrazu świata.

  • Materia istnieje w dwóch postaciach: substancji i pola. Są one ściśle oddzielone i ich wzajemne przekształcenie jest niemożliwe. Najważniejsze jest pole, co oznacza, że ​​​​główną właściwością materii jest ciągłość (ciągłość), a nie dyskretność.
  • Pojęcia materii i ruchu są nierozłączne
  • Przestrzeń i czas są powiązane zarówno ze sobą, jak i z poruszającą się materią.

Podstawowymi zasadami elektromagnetycznego obrazu świata są Zasada względności Einsteina, działanie krótkiego zasięgu, stałość i granica prędkości światła, równoważność mas inercyjnych i grawitacyjnych, przyczynowość. (Nie pojawiło się nowe rozumienie przyczynowości w porównaniu z mechanistycznym obrazem świata. Za główne uznano związki przyczynowo-skutkowe i wyrażające je prawa dynamiczne.) Ustalenie związku masy i energii ( E = mc 2) miało ogromne znaczenie. Masa stała się nie tylko miarą bezwładności i grawitacji, ale także miarą zawartości energii. W rezultacie dwa prawa zachowania - masa i energia - zostały połączone w jedno ogólne prawo zachowania masy i energii.

Dalszy rozwój fizyki pokazał, że EMCM jest ograniczony. Główna trudność polegała na tym, że kontinuum rozumienia materii nie było zgodne z faktami doświadczalnymi potwierdzającymi nieciągłość wielu jej właściwości – ładunku, promieniowania, działania. Nie udało się wyjaśnić zależności między polem a ładunkiem, stabilnością atomów, ich widmami, zjawiskiem efektu fotoelektrycznego i promieniowaniem ciała doskonale czarnego. Wszystko to świadczyło o względnym charakterze EMCM i konieczności zastąpienia go nowym obrazem świata.

Wkrótce EMKM został zastąpiony nowym - kwantowym obrazem pola Świata, opartym na nowej teorii fizycznej - mechanika kwantowa, łącząc dyskretność MCM i ciągłość EMCM.

Powstanie mechaniki kwantowej. cząstki elementarne

Na początku XX wieku pojawiły się wyniki eksperymentów, które trudno było wyjaśnić w ramach klasycznych koncepcji. W tym zakresie zaproponowano zupełnie nowe podejście – kwantowe, oparte na koncepcji dyskretnej.

Nazywa się wielkości fizyczne, które mogą przyjmować tylko pewne wartości dyskretne skwantowany.

Mechanika kwantowa (mechanika falowa)- teoria fizyczna ustalająca sposób opisu i prawa ruchu mikrocząstek (cząstek elementarnych, atomów, cząsteczek, jąder atomowych) i ich układów.

Istotną różnicą między mechaniką kwantową a mechaniką klasyczną jest jej zasadniczo probabilistyczny charakter.

Mechanika klasyczna charakteryzuje się opisem cząstek poprzez określenie ich położenia w przestrzeni (współrzędne) i pędu (wielkość ruchu w.m.). Opis ten nie dotyczy mikrocząstek.

Pojęcia kwantowe zostały po raz pierwszy wprowadzone do fizyki przez niemieckiego fizyka M. Plancka w 1900 r.

Zasugerował, że światło nie jest emitowane w sposób ciągły(jak wynika z klasycznej teorii promieniowania), oraz pewne dyskretne części energii – kwanty.

W 1905 roku A. Einstein wysunął hipotezę, że światło nie tylko jest emitowane i pochłaniane, ale także rozchodzi się za pomocą kwantów.

Kwant światła nazywany jest fotonem. Termin ten został wprowadzony przez amerykańskiego fizykochemika Lewisa w 1929 roku. Photon - cząstka nie posiadająca masy spoczynkowej. Foton porusza się zawsze z prędkością równą prędkości światła.

Efekt Comptona. W 1922 roku amerykański fizyk Compton odkrył efekt, w którym po raz pierwszy w pełni wykazano korpuskularne właściwości promieniowania elektromagnetycznego (w szczególności światła). Wykazano eksperymentalnie, że rozpraszanie światła na swobodnych elektronach zachodzi zgodnie z prawami sprężystego zderzenia dwóch cząstek.

W 1913 r. N. Bohr zastosował ideę kwantów do planetarnego modelu atomu.

Hipotezę o uniwersalności dualizmu korpuskularno-falowego wysunął Louis de Broglie. Cząstki elementarne są jednocześnie korpuskułami i falami, a raczej dialektyczną jednością właściwości obu. Ruchu mikrocząstek w przestrzeni i czasie nie można utożsamiać z mechanicznym ruchem makroobiektu. Ruch mikrocząstek podlega prawom mechaniki kwantowej.

Ostateczne ukształtowanie się mechaniki kwantowej jako spójnej teorii wiąże się z pracą Heisenberga z 1927 r., w której sformułowano zasadę nieoznaczoności, która stwierdza, że ​​żaden układ fizyczny nie może znajdować się w stanach, w których współrzędne jego środka bezwładności i pędu są jednocześnie przyjmować dobrze określone, dokładne wartości.

Przed odkryciem cząstek elementarnych i ich oddziaływań nauka rozróżniała dwa rodzaje materii – materię i pole. Jednak rozwój fizyki kwantowej ujawnił względność linii podziału między materią i polem.

We współczesnej fizyce pola i cząstki działają jak dwie nierozerwalnie powiązane strony mikroświata, jako wyraz jedności korpuskularnych (dyskretnych) i falowych (ciągłych, ciągłych) właściwości mikroobiektów. Koncepcje pola służą również jako podstawa do wyjaśnienia procesów interakcji, ucieleśniając zasadę działania krótkiego zasięgu.

Jeszcze na przełomie XIX i XX wieku pole definiowano jako ciągłe środowisko materialne, a materię jako nieciągłe, składające się z dyskretnych cząstek.

Cząstki elementarne, w ścisłym znaczeniu tego terminu są to pierwotne, dalsze nierozkładalne cząstki, z których, z założenia, składa się cała materia. Cząstki elementarne współczesnej fizyki nie spełniają ścisłej definicji elementarności, ponieważ większość z nich, zgodnie ze współczesnymi koncepcjami, to układy złożone.

Pierwszą cząstkę elementarną, elektron, odkrył J.J. Thomsona w 1897 r

Po elektronie istnienie foton(1900) – kwant światła.

Następnie następuje odkrycie szeregu innych cząstek: neutronu, mezonów, hiperonów itp.

W 1928 roku Dirac przewidział istnienie cząstki o masie takiej samej jak elektron, ale o przeciwnym ładunku. Cząstkę tę nazwano pozytonem. A ona naprawdę

został znaleziony w 1932 jako część promieni kosmicznych przez amerykańskiego fizyka Andersona.

Współczesna fizyka zna ponad 400 cząstek elementarnych, w większości niestabilnych, a ich liczba stale rośnie.

Istnieją cztery typy podstawowych podstawowych interakcji fizycznych:

  1. grawitacyjny - charakterystyczny dla wszystkich obiektów materialnych, niezależnie od ich natury.
  2. elektromagnetyczny Oh - odpowiedzialny za łączenie elektronów i jąder w atomach oraz łączenie atomów w cząsteczkach.
  3. silny - utrzymuje razem nukleony (protony i neutrony) w jądrze i kwarki wewnątrz nukleonów.,
  4. słaby - kontroluje procesy rozpadu radioaktywnego cząstek.

Ze względu na rodzaje oddziaływań dzielimy cząstki elementarne na:

  1. Hadrony(ciężkie cząstki - protony, neutrony, mezony itp.) uczestniczą we wszystkich oddziaływaniach.
  2. Leptony(z greckiego leptos - światło; na przykład elektron, neutrino itp.) nie biorą udziału w oddziaływaniach silnych, a jedynie w oddziaływaniach elektromagnetycznych, słabych i grawitacyjnych.

Kiedy cząstki elementarne się zderzają, zachodzą między nimi wszelkiego rodzaju przemiany (w tym narodziny wielu dodatkowych cząstek), których nie zabraniają prawa zachowania.

Podstawowe interakcje panujące pomiędzy obiektami:

Mikroświat (silny, słaby i elektromagnetyczny)

Makroświat (elektromagnetyczny)

Megaświat (grawitacyjny)

Współczesna fizyka nie stworzyła jeszcze jednolitej teorii cząstek elementarnych, poczyniono dopiero pierwsze, ale znaczące kroki w tym kierunku.

Wielka Unifikacja – tą nazwą określa się modele teoretyczne oparte na ideach o jednolitej naturze oddziaływań silnych, słabych i elektromagnetycznych

  1. odkrycie w XVII w. prawa mechaniki umożliwiły stworzenie całej technologii maszynowej cywilizacji;
  2. odkrycie w XIX w. pole elektromagnetyczne doprowadziło do rozwoju elektrotechniki, radiotechniki, a następnie elektroniki radiowej;
  3. powstanie w XX wieku teorii jądra atomowego doprowadziło do wykorzystania energii jądrowej;

W tym obrazie świata wszystkie Wydarzenia i Zmiany były ze sobą powiązane i współzależne poprzez ruch mechaniczny.

Pojawienie się elektromagnetycznego obrazu świata charakteryzuje jakościowo nowy etap ewolucji nauki.

Porównanie tego obrazu świata z mechanistycznym ujawnia kilka istotnych cech.

Na przykład,

Taka komplementarność obrazów nie jest przypadkowa. Jest to ściśle ewolucyjne.

Kwantowy obraz świata powstał w wyniku dalszego rozwoju elektromagnetycznego obrazu świata.


Ten obraz świata odzwierciedla już jedność dwóch poprzednich obrazów świata w jedności opartej na zasadzie komplementarności . W zależności od konfiguracji eksperymentu mikroobiekt wykazuje albo naturę korpuskularną, albo naturę falową, ale nie obie na raz. Te dwie natury mikroobiektu wzajemnie się wykluczają, a jednocześnie należy je traktować jako uzupełniające się.

Astronomiczny obraz świata

Przestrzeń(z greckiego Kosmos - świat), termin wywodzący się z filozofii starożytnej Grecji i określający świat jako strukturalnie zorganizowaną i uporządkowaną całość, w przeciwieństwie do Chaosu.

Obecnie przestrzeń odnosi się do wszystkiego, co znajduje się poza atmosferą ziemską. W przeciwnym razie przestrzeń nazywana jest Wszechświatem.

Wszechświat to miejsce, w którym zamieszkuje człowiek, cały istniejący świat materialny . Powiązane pojęcie (w językach łacińskich) „Universum”

Wszechświat jest największym systemem materialnym, megaświatem.

Kosmologia(sekcja astronomii) jest nauką o właściwościach, strukturze, pochodzeniu i ewolucji Wszechświata jako jednej uporządkowanej całości.

Metagalaktyka to część Wszechświata dostępna dla współczesnych metod badań astronomicznych.

Współczesna kosmologia opiera się na ogólnej teorii względności i postulacie kosmologicznym (ideach o jednorodności i izotropii Wszechświata). We Wszechświecie wszystkie punkty i kierunki są sobie równe.

Główną metodą zdobywania wiedzy astronomicznej jest obserwacja, ponieważ z nielicznymi wyjątkami eksperyment jest niemożliwy w badaniu Wszechświata.

Powstanie i ewolucja Wszechświata. Model Wielkiego Wybuchu

Problem ewolucji Wszechświata jest centralny dla nauk przyrodniczych.

W nauce klasycznej (kosmologia Newtona) istniała tzw. teoria stanu ustalonego Wszechświata, według której Wszechświat zawsze był prawie taki sam jak obecnie.

Astronomia była statyczna: badano ruchy planet i komet, opisywano gwiazdy i tworzono ich klasyfikacje. Kwestia ewolucji Wszechświata nie została poruszona.

Powstanie współczesnej kosmologii wiąże się z powstaniem relatywistycznej teorii grawitacji – ogólnej teorii względności Einsteina (1916). Z równań ogólnej teorii względności wynika krzywizna czasoprzestrzeni i związek pomiędzy krzywizną a gęstością masy (energii).
W 1917 roku Einstein wyprowadził podstawowe równania łączące rozkład materii z geometrycznymi właściwościami przestrzeni i na ich podstawie opracował model Wszechświata.

Wszechświat w modelu kosmologicznym A. Einsteina jest stacjonarny, nieskończony w czasie i nieograniczony, ale jednocześnie jest zamknięty w przestrzeni, jak powierzchnia dowolnej kuli.

Jednak z ogólnej teorii względności wynikało, że zakrzywiona przestrzeń nie może być nieruchoma, musi się rozszerzać lub kurczyć. Dlatego Einstein wprowadził do otrzymanych równań dodatkowy człon, zapewniający stacjonarność Wszechświata.
W 1922 r. radziecki matematyk A.A. Friedman jako pierwszy rozwiązał równania ogólnej teorii względności bez narzucania warunków stacjonarności. Stworzył model niestacjonarnego, rozszerzającego się Wszechświata.

Wniosek ten oznaczał potrzebę radykalnej przebudowy przyjętego wówczas obrazu świata.

Model Wszechświata Friedmana miał charakter ewolucyjny. Stało się jasne, że Wszechświat miał początek, a obserwowane dziś jego właściwości można i należy tłumaczyć wcześniejszym okresem rozwoju.

Obserwacyjnym potwierdzeniem modelu rozszerzającego się Wszechświata było odkrycie efektu przesunięcia ku czerwieni w 1929 roku przez amerykańskiego astronoma E. Hubble'a.

Zgodnie z efektem Dopplera widma emisyjne obiektów oddalających się powinny być przesunięte do obszaru czerwonego, a widma obiektów zbliżających się do obszaru fioletowego.

E. Hubble odkrył, że wszystkie odległe galaktyki oddalają się od nas, a dzieje się to coraz szybciej wraz ze wzrostem odległości.

Prawo recesji to prawo Hubble'a V=H 0 r, gdzie H 0 jest stałą, obecnie nazywaną stałą Hubble'a.

Jeśli Wszechświat się rozszerza, to powstał w pewnym momencie.

Kiedy to się stało?

Wiek Wszechświata wyznacza wartość stałej Hubble’a. Według współczesnych danych jest to 13-15 miliardów lat.

Jak to się stało?

Również A.A. Friedman doszedł do wniosku, że z wciąż niejasnych powodów Wszechświat nagle powstał w bardzo małej, niemal punktowej objętości o monstrualnej gęstości i temperaturze i zaczął gwałtownie się rozszerzać.

Najbardziej ogólnie akceptowanym modelem Wszechświata we współczesnej kosmologii jest model jednorodnego, izotropowego, gorącego, niestacjonarnego rozszerzającego się Wszechświata.

Obecnie większość kosmologów wychodzi z modelu Wielkiego Wybuchu w jego zmodyfikowanej wersji z początkiem inflacyjnym.

W 1946 roku położył podwaliny pod jedną z podstawowych koncepcji współczesnej kosmologii - model „gorącego Wszechświata”. („Wielki Wybuch”) Jako pierwszy zasugerował, że w początkowej fazie ewolucji Wszechświat był „gorący” i mogły w nim zachodzić procesy termojądrowe .

Model ten wyjaśnia zachowanie Wszechświata w pierwszych trzech minutach jego życia, które są kluczowe dla zrozumienia obecnej struktury Wszechświata.

Wszechświat, zgodnie z modelem Wielkiego Wybuchu, jest ograniczony w przestrzeni i czasie, przynajmniej w przeszłości. Przed eksplozją nie było materii, czasu i przestrzeni.

Zatem według współczesnych poglądów Wszechświat powstał w wyniku szybkiej ekspansji, eksplozji supergęstej gorącej materii o niezwykle wysokiej temperaturze. Nauka wiąże tę eksplozję z przegrupowaniami w strukturze próżni fizycznej, z jej przejściami fazowymi z jednego stanu do drugiego, którym towarzyszyło uwolnienie ogromnych energii.

Rozwój kosmologii i fizyki cząstek elementarnych w ostatnich dziesięcioleciach umożliwił teoretyczne rozpatrywanie i opisywanie zmian parametrów fizycznych Wszechświata w procesie jego ekspansji.

Główne etapy powstania Wszechświata.

Krótka historia rozwoju wszechświata

Krótka historia rozwoju czasu wszechświatowego Temperatura Stan Wszechświata
10 -45 - 10 -37 sek > 10 26 tys Ekspansja inflacyjna ( Faza inflacyjna)
10 -6 sek > 10 13 tys Pojawienie się kwarków i elektronów
10 -5 sek 10 12 tys Produkcja protonów i neutronów
10 -4 sek. - 3 min 10 11 -10 9 tys Pojawienie się jąder deuteru, helu i litu ( era nukleosyntezy)
400 tysięcy lat 4000 K Tworzenie atomów ( era rekombinacji)
15 milionów lat 300 tys Dalsza ekspansja chmury gazu
1 miliard lat 20 tys Narodziny pierwszych gwiazd i galaktyk
3 miliardy lat 10 tys Tworzenie się ciężkich jąder podczas eksplozji gwiazd
10 - 15 miliardów lat 3 tys Pojawienie się planet i inteligentnego życia

Osobliwość- szczególny stan początkowy Wszechświata, w którym gęstość, krzywizna przestrzeni i temperatura przyjmują wartość nieskończoną.

Faza inflacyjna- bardzo początkowy, supergęsty etap ekspansji Wszechświata, zakończony w czasie 10 -36 sek.

Era nukleosyntezy. Kilka sekund po rozpoczęciu ekspansji Wszechświata rozpoczęła się era, w której powstały jądra deuteru, helu, litu i berylu.

Epoka ta trwała około 3 minut.

Pod koniec tego procesu materia Wszechświata składała się z 75% protonów (jąder wodoru), około 25% to jądra helu, a setne procenta to jądra deuteru, litu i berylu.

Następnie przez prawie 500 tysięcy lat nie nastąpiły żadne zmiany jakościowe - następowało powolne ochłodzenie i ekspansja Wszechświata. Wszechświat, pozostając jednorodny, stawał się coraz bardziej rozrzedzony.

Era rekombinacji to powstawanie neutralnych atomów.

Nastąpiło około miliona lat po rozpoczęciu ekspansji. Kiedy Wszechświat ochłodził się do 3000 K, jądra atomów wodoru i helu mogły już wychwytywać wolne elektrony i przekształcać się w obojętne atomy wodoru i helu.

Po epoce rekombinacji materia we Wszechświecie była rozłożona niemal równomiernie i składała się głównie z atomów wodór 75% i hel 25%, najliczniej występujących pierwiastków we Wszechświecie.

Od ery rekombinacji oddziaływanie promieniowania z materią praktycznie ustało, a przestrzeń stała się niemal przezroczysta dla promieniowania. Promieniowanie zachowane z początkowych momentów ewolucji (promieniowanie reliktowe) równomiernie wypełnia cały Wszechświat. Ze względu na ekspansję Wszechświata temperatura tego promieniowania stale spada. Obecnie jest 2,7 stopnia K.

Model gorącego Wszechświata (Wielkiego Wybuchu) potwierdza odkrycie przewidywanego przez niego kosmicznego mikrofalowego promieniowania tła, wypełniającego Wszechświat (1965 r.) Amerykańscy naukowcy Penzias i Wilson Za swoje odkrycie w 1978 roku otrzymali Nagrodę Nobla.

Określenie składu chemicznego (zwłaszcza zawartości helu, deuteru i litu) najstarszych gwiazd oraz ośrodka międzygwiazdowego młodych galaktyk również potwierdziło model gorącego Wszechświata.

Główna ilość wodoru i helu nie jest zawarta w gwiazdach, ale jest rozprowadzana w przestrzeni międzygwiazdowej i międzygalaktycznej.

Po rekombinacji atomów substancją wypełniającą Wszechświat stał się gaz, który na skutek niestabilności grawitacyjnej zaczął gromadzić się w kondensację.

Skutki tego procesu widzimy w postaci gromad galaktyk, galaktyk i gwiazd. Struktura Wszechświata jest bardzo złożona, a badanie mechanizmu jego powstawania jest jednym z najciekawszych problemów współczesności. Co dziwne, daleko mu do rozwiązania – mamy jaśniejsze pojęcie o tym, co wydarzyło się w pierwszych sekundach po „wielkim wybuchu” niż w okresie sprzed miliona lat.

Istnieją alternatywne modele pochodzenia Wszechświata.

Wiedza naukowa to system, który posiada kilka poziomów wiedzy, różniących się szeregiem parametrów. W zależności od przedmiotu, charakteru, rodzaju, metody i metody zdobywanej wiedzy wyróżnia się empiryczny i teoretyczny poziom wiedzy. Każdy z nich pełni określone funkcje i dysponuje określonymi metodami badawczymi. Poziomy odpowiadają powiązanym, ale jednocześnie specyficznym rodzajom aktywności poznawczej: badaniom empirycznym i teoretycznym. Rozróżniając empiryczny i teoretyczny poziom wiedzy naukowej, współczesny badacz ma świadomość, że o ile w wiedzy potocznej uzasadnione jest rozróżnienie poziomu zmysłowego i racjonalnego, to w badaniach naukowych empiryczny poziom badań nigdy nie ogranicza się do wiedzy czysto zmysłowej, wiedza teoretyczna nie reprezentuje czystej racjonalności. Nawet początkowa wiedza empiryczna uzyskana poprzez obserwację jest zapisywana przy użyciu terminów naukowych. Wiedza teoretyczna też nie jest czystą racjonalnością. Konstruując teorię wykorzystuje się reprezentacje wizualne, które stanowią podstawę percepcji zmysłowej. Można zatem powiedzieć, że na początku badań empirycznych dominuje zmysłowość, a w badaniach teoretycznych dominuje racjonalność. Na poziomie badań empirycznych możliwa jest identyfikacja zależności i powiązań pomiędzy zjawiskami a określonymi wzorcami. Jeśli jednak poziom empiryczny może uchwycić jedynie przejaw zewnętrzny, wówczas poziom teoretyczny wyjaśnia istotne powiązania badanego obiektu.

Wiedza empiryczna jest wynikiem bezpośredniej interakcji badacza z rzeczywistością w drodze obserwacji lub eksperymentu. Na poziomie empirycznym następuje nie tylko kumulacja faktów, ale także ich pierwotna systematyzacja i klasyfikacja, co pozwala na identyfikację empirycznych reguł, zasad i praw, które przekształcają się w obserwowalne zjawiska. Na tym poziomie badany obiekt znajduje odzwierciedlenie przede wszystkim w zewnętrznych powiązaniach i przejawach. O złożoności wiedzy naukowej decyduje obecność w niej nie tylko poziomów i metod poznania, ale także form, w jakich jest ona utrwalona i rozwijana. Głównymi formami wiedzy naukowej są fakty, problemy, hipotezy I teorie. Ich znaczenie polega na ukazaniu dynamiki procesu poznania w trakcie badania i badania dowolnego obiektu. Ustalenie faktów jest warunkiem koniecznym powodzenia badań nauk przyrodniczych. Aby zbudować teorię, fakty muszą być nie tylko wiarygodnie ustalone, usystematyzowane i uogólnione, ale także rozpatrywane w powiązaniu. Hipoteza to wiedza hipotetyczna, która ma charakter probabilistyczny i wymaga weryfikacji. Jeżeli podczas testowania treść hipotezy nie zgadza się z danymi empirycznymi, wówczas zostaje ona odrzucona. Jeśli hipoteza się potwierdzi, wówczas możemy o niej mówić z różnym stopniem prawdopodobieństwa. W wyniku testów i dowodów niektóre hipotezy stają się teoriami, inne są wyjaśniane i doprecyzowywane, a jeszcze inne odrzucane, jeśli ich sprawdzenie daje wynik negatywny. Głównym kryterium prawdziwości hipotezy jest praktyka w różnych jej postaciach.



Teoria naukowa to uogólniony system wiedzy, który zapewnia holistyczne odzwierciedlenie naturalnych i znaczących powiązań w pewnym obszarze obiektywnej rzeczywistości. Głównym zadaniem teorii jest opisanie, usystematyzowanie i wyjaśnienie całego zbioru faktów empirycznych. Teorie są klasyfikowane jako opisowy, naukowy I dedukcyjny. W teoriach opisowych badacze formułują ogólne wzorce na podstawie danych empirycznych. Teorie opisowe nie wymagają analizy logicznej i konkretnych dowodów (teoria fizjologiczna I. Pawłowa, teoria ewolucji Karola Darwina itp.). W teoriach naukowych konstruowany jest model, który zastępuje obiekt rzeczywisty. Konsekwencje teorii są weryfikowane eksperymentalnie (teorie fizyczne itp.). W teoriach dedukcyjnych opracowano specjalny sformalizowany język, którego wszystkie terminy podlegają interpretacji. Pierwszym z nich są „Elementy” Euklidesa (formułuje się główny aksjomat, następnie dodaje się do niego logicznie wydedukowane przepisy i na tej podstawie przeprowadza się wszelkie dowody).

Głównymi elementami teorii naukowej są zasady i prawa. Zasady dostarczają ogólnych i ważnych potwierdzeń teorii. Teoretycznie zasady pełnią rolę podstawowych warunków wstępnych, które stanowią jej podstawę. Z kolei treść każdej zasady ujawniana jest za pomocą praw. Określają zasady, ujawniają mechanizm ich działania, logikę relacji i wynikające z nich konsekwencje. Prawa są formą twierdzeń teoretycznych, które ujawniają ogólne powiązania badanych zjawisk, obiektów i procesów. Badaczowi przy formułowaniu zasad i praw dość trudno jest dostrzec za licznymi, często zupełnie odmiennymi zewnętrznie faktami, istotne właściwości i cechy właściwości badanych obiektów i zjawisk. Trudność polega na tym, że w bezpośredniej obserwacji trudno jest zarejestrować istotne cechy badanego obiektu. Niemożliwe jest zatem bezpośrednie przejście z poziomu wiedzy empirycznej na poziom teoretyczny. Teorii nie buduje się poprzez bezpośrednie uogólnianie doświadczenia, dlatego kolejnym krokiem jest sformułowanie problemu. Definiuje się ją jako formę wiedzy, której treścią jest świadome pytanie, na które istniejąca wiedza nie wystarczy. Poszukiwanie, formułowanie i rozwiązywanie problemów to główne cechy działalności naukowej. Z kolei obecność problemu w zrozumieniu niewytłumaczalnych faktów pociąga za sobą wstępny wniosek, który wymaga potwierdzenia eksperymentalnego, teoretycznego i logicznego. Proces poznania otaczającego świata jest rozwiązywaniem różnego rodzaju problemów pojawiających się w toku praktycznej działalności człowieka. Problemy te rozwiązuje się za pomocą specjalnych technik - metod.

Metody nauki– zespół technik i operacji służących praktycznemu i teoretycznemu poznaniu rzeczywistości.

Metody badawcze optymalizują działalność człowieka i wyposażają go w najbardziej racjonalne sposoby organizacji działań. A.P. Sadokhin oprócz podkreślania poziomów wiedzy przy klasyfikacji metod naukowych bierze pod uwagę kryterium stosowalności metody oraz identyfikuje ogólne, specjalne i szczegółowe metody wiedzy naukowej. Wybrane metody często są łączone i łączone w trakcie procesu badawczego.

Metody ogólne wiedza dotyczy dowolnej dyscypliny i umożliwia powiązanie wszystkich etapów procesu poznania. Metody te znajdują zastosowanie w każdej dziedzinie badań i pozwalają na identyfikację powiązań i cech charakterystycznych badanych obiektów. W historii nauki do takich metod badacze zaliczają metody metafizyczne i dialektyczne. Metody prywatne wiedza naukowa to metody stosowane tylko w określonej gałęzi nauki. Różne metody nauk przyrodniczych (fizyka, chemia, biologia, ekologia itp.) są specyficzne w stosunku do ogólnej dialektycznej metody poznania. Czasami metody prywatne można stosować poza gałęziami nauk przyrodniczych, z których się wywodzą. Na przykład metody fizyczne i chemiczne są stosowane w astronomii, biologii i ekologii. Często badacze stosują zespół powiązanych ze sobą metod prywatnych do badania jednego przedmiotu. Na przykład ekologia wykorzystuje jednocześnie metody fizyki, matematyki, chemii i biologii. Określonym metodom poznania towarzyszą specjalne metody. Metody specjalne zbadać pewne cechy badanego obiektu. Mogą objawiać się na poziomie wiedzy empirycznej i teoretycznej oraz mieć charakter uniwersalny.

Wśród specjalne empiryczne metody poznania rozróżnia obserwację, pomiar i eksperyment.

Obserwacja to celowy proces postrzegania obiektów rzeczywistości, zmysłowe odbicie obiektów i zjawisk, podczas którego człowiek otrzymuje podstawowe informacje o otaczającym go świecie. Dlatego badania najczęściej rozpoczynają się od obserwacji, a dopiero potem badacze przechodzą do innych metod. Obserwacje nie są związane z żadną teorią, ale cel obserwacji jest zawsze związany z jakąś sytuacją problemową. Obserwacja zakłada istnienie określonego planu badawczego, założenie podlegające analizie i weryfikacji. Obserwacje stosuje się tam, gdzie nie można przeprowadzić bezpośrednich eksperymentów (w wulkanologii, kosmologii). Wyniki obserwacji zapisuje się w opisie, zwracając uwagę na znaki i właściwości badanego obiektu, które są przedmiotem badań. Opis musi być jak najbardziej kompletny, dokładny i obiektywny. To właśnie opisy wyników obserwacji stanowią empiryczną podstawę nauki, na ich podstawie tworzone są empiryczne uogólnienia, systematyzacja i klasyfikacja.

Pomiar– jest to określenie wartości ilościowych (charakterystyk) badanych aspektów lub właściwości obiektu za pomocą specjalnych urządzeń technicznych. W badaniu ważną rolę odgrywają jednostki miary, z którymi porównywane są uzyskane dane.

Eksperyment – bardziej złożoną metodą wiedzy empirycznej w porównaniu z obserwacją. Reprezentuje celowy i ściśle kontrolowany wpływ badacza na obiekt lub zjawisko będące przedmiotem zainteresowania w celu zbadania jego różnych aspektów, powiązań i relacji. Podczas badań eksperymentalnych naukowiec ingeruje w naturalny przebieg procesów i przekształca przedmiot badań. Specyfika eksperymentu polega również na tym, że pozwala zobaczyć obiekt lub proces w czystej postaci. Dzieje się tak z powodu maksymalnego wykluczenia narażenia na czynniki zewnętrzne. Eksperymentator oddziela fakty istotne od nieistotnych, co znacznie upraszcza sytuację. Takie uproszczenie przyczynia się do głębokiego zrozumienia istoty zjawisk i procesów oraz stwarza możliwość kontrolowania wielu czynników i wielkości istotnych dla danego eksperymentu. Współczesny eksperyment charakteryzuje się następującymi cechami: zwiększoną rolą teorii na etapie przygotowawczym eksperymentu; złożoność środków technicznych; skala eksperymentu. Głównym celem eksperymentu jest sprawdzenie hipotez i wniosków teorii o znaczeniu fundamentalnym i aplikacyjnym. W pracach eksperymentalnych, przy aktywnym oddziaływaniu na badany obiekt, sztucznie wyodrębnia się pewne jego właściwości, które są przedmiotem badań w warunkach naturalnych lub specjalnie stworzonych. W procesie eksperymentów przyrodniczych często uciekają się do modelowania fizycznego badanego obiektu i stwarzają dla niego różne kontrolowane warunki. S. X. Karpenkov dzieli środki eksperymentalne ze względu na ich treść na następujące systemy:

♦ układ zawierający badany obiekt o określonych właściwościach;

♦ system oddziałujący na badany obiekt;

♦ układ pomiarowy.

S. Kh. Karpenkov zwraca uwagę, że w zależności od zadania systemy te pełnią inną rolę. Na przykład przy określaniu właściwości magnetycznych substancji wyniki eksperymentu w dużej mierze zależą od czułości instrumentów. Jednocześnie przy badaniu właściwości substancji, która nie występuje w przyrodzie w zwykłych warunkach, a nawet w niskich temperaturach, ważne są wszystkie systemy środków doświadczalnych.

W każdym eksperymencie przyrodniczym wyróżnia się następujące etapy:

♦ etap przygotowawczy;

♦ etap zbierania danych eksperymentalnych;

♦ etap przetwarzania wyników.

Etap przygotowawczy obejmuje teoretyczne uzasadnienie eksperymentu, jego planowanie, wykonanie próbki badanego obiektu, dobór warunków i technicznych środków badawczych. Wyniki uzyskane na dobrze przygotowanych podstawach eksperymentalnych z reguły łatwiej poddają się złożonemu przetwarzaniu matematycznemu. Analiza wyników eksperymentów pozwala ocenić pewne cechy badanego obiektu i porównać uzyskane wyniki z postawioną hipotezą, co jest bardzo ważne w określeniu poprawności i stopnia wiarygodności ostatecznych wyników badań.

Aby zwiększyć wiarygodność uzyskanych wyników eksperymentalnych, konieczne jest:

♦ wielokrotne powtarzanie pomiarów;

♦ doskonalenie środków i instrumentów technicznych;

♦ ścisłe uwzględnienie czynników wpływających na badany obiekt;

♦ jasne zaplanowanie eksperymentu, pozwalające uwzględnić specyfikę badanego obiektu.

Wśród specjalne teoretyczne metody poznania naukowego rozróżniać procedury abstrakcji i idealizacji. W procesach abstrakcji i idealizacji powstają pojęcia i terminy używane we wszystkich teoriach. Pojęcia odzwierciedlają istotną stronę zjawisk, która pojawia się przy uogólnianiu badania. W tym przypadku podkreślany jest tylko jakiś aspekt obiektu lub zjawiska. Zatem pojęciu „temperatury” można nadać definicję operacyjną (wskaźnik stopnia nagrzania ciała w określonej skali termometru), a z punktu widzenia teorii kinetyki molekularnej temperatura jest wartością proporcjonalną do średniej kinetyki energia ruchu cząstek tworzących ciało. Abstrakcja – mentalne odwrócenie uwagi od wszystkich właściwości, powiązań i relacji badanego obiektu, które uważa się za nieistotne. Są to modele punktu, prostej, okręgu, płaszczyzny. Wynik procesu abstrakcji nazywa się abstrakcją. Rzeczywiste obiekty w niektórych problemach można zastąpić tymi abstrakcjami (Ziemię można uznać za punkt materialny podczas poruszania się wokół Słońca, ale nie podczas poruszania się po jego powierzchni).

Idealizacja reprezentuje operację mentalnego zidentyfikowania jednej właściwości lub związku, który jest ważny dla danej teorii i mentalnego skonstruowania obiektu wyposażonego w tę właściwość (związek). W rezultacie obiekt idealny ma tylko tę właściwość (relację). Nauka identyfikuje ogólne wzorce w rzeczywistości, które są znaczące i powtarzają się u różnych przedmiotów, dlatego musimy dokonywać abstrakcji z rzeczywistych obiektów. W ten sposób powstają takie pojęcia jak „atom”, „zbiór”, „ciało doskonale czarne”, „gaz doskonały”, „ośrodek ciągły”. Uzyskane w ten sposób idealne przedmioty faktycznie nie istnieją, gdyż w przyrodzie nie mogą istnieć przedmioty i zjawiska posiadające tylko jedną właściwość lub cechę. Stosując teorię, konieczne jest ponowne porównanie uzyskanych i zastosowanych modeli idealnych i abstrakcyjnych z rzeczywistością. Dlatego ważne jest, aby wybierać abstrakcje zgodnie z ich adekwatnością do danej teorii, a następnie je wykluczać.

Wśród specjalne uniwersalne metody badawcze identyfikować analizę, syntezę, porównanie, klasyfikację, analogię, modelowanie. Proces przyrodniczego poznania naukowego przebiega w ten sposób, że najpierw obserwujemy ogólny obraz badanego obiektu, w którym szczegóły pozostają w cieniu. Przy takiej obserwacji nie da się poznać wewnętrznej struktury obiektu. Aby to zbadać, musimy oddzielić badane obiekty.

Analiza– jeden z początkowych etapów badań, kiedy przechodzi się od pełnego opisu obiektu do jego struktury, składu, cech i właściwości. Analiza jest metodą wiedzy naukowej, która opiera się na procedurze mentalnego lub rzeczywistego podziału obiektu na jego części składowe i ich odrębnego badania. Nie da się poznać istoty przedmiotu jedynie poprzez podkreślenie elementów, z których się on składa. Kiedy szczegóły badanego obiektu są badane poprzez analizę, jest ona uzupełniana przez syntezę.

Synteza – metoda wiedzy naukowej, która opiera się na połączeniu elementów zidentyfikowanych w drodze analizy. Synteza nie jest metodą konstruowania całości, lecz metodą przedstawienia całości w postaci jedynej wiedzy uzyskanej w drodze analizy. Pokazuje miejsce i rolę każdego elementu w systemie, ich powiązania z innymi elementami. Analiza ujmuje przede wszystkim to, co odróżnia części od siebie, synteza – uogólnia zidentyfikowane analitycznie i zbadane cechy obiektu. Analiza i synteza mają swoje źródło w praktycznej działalności człowieka. Człowiek nauczył się mentalnie analizować i syntetyzować jedynie na podstawie praktycznej separacji, stopniowo pojmując, co dzieje się z przedmiotem, wykonując z nim praktyczne działania. Analiza i synteza są składnikami analityczno-syntetycznego sposobu poznania.

Dokonując ilościowego porównania badanych właściwości, parametrów obiektów lub zjawisk, mówimy o metodzie porównawczej. Porównanie– metoda wiedzy naukowej, która pozwala ustalić podobieństwa i różnice badanych obiektów. Porównanie leży u podstaw wielu pomiarów przyrodniczych, które stanowią integralną część każdego eksperymentu. Porównując obiekty ze sobą, człowiek ma możliwość prawidłowego ich poznania, a tym samym prawidłowego poruszania się po otaczającym go świecie i celowego wpływania na niego. Porównanie ma znaczenie, gdy porównuje się obiekty rzeczywiście jednorodne i podobne w istocie. Metoda porównawcza uwypukla różnice pomiędzy badanymi obiektami i stanowi podstawę wszelkich pomiarów, czyli podstawę badań eksperymentalnych.

Klasyfikacja– metoda wiedzy naukowej polegająca na łączeniu w jedną klasę obiektów możliwie najbardziej podobnych do siebie pod względem istotnych cech. Klasyfikacja pozwala zredukować zgromadzony różnorodny materiał do stosunkowo niewielkiej liczby klas, typów i form oraz zidentyfikować wyjściowe jednostki analizy, odkryć trwałe cechy i zależności. Zazwyczaj klasyfikacje wyrażane są w formie tekstów, diagramów i tabel w języku naturalnym.

Analogia – metoda poznania, w której wiedzę zdobytą w wyniku badania przedmiotu przenosi się na inny, mniej zbadany, ale podobny do pierwszego pod pewnymi istotnymi właściwościami. Metoda analogii opiera się na podobieństwie obiektów według szeregu cech, a podobieństwo ustala się w wyniku porównania obiektów ze sobą. Zatem podstawą metody analogii jest metoda porównawcza.

Metoda analogii jest ściśle związana z metodą modelowanie, czyli badanie dowolnych obiektów za pomocą modeli z dalszym przeniesieniem uzyskanych danych do oryginału. Metoda ta opiera się na znacznym podobieństwie obiektu pierwotnego i jego modelu. We współczesnych badaniach stosuje się różne rodzaje modelowania: przedmiotowe, mentalne, symboliczne, komputerowe. Temat modelowanie to wykorzystanie modeli odtwarzających pewne cechy obiektu. Psychiczny Modelowanie to wykorzystanie różnych reprezentacji mentalnych w postaci wyimaginowanych modeli. Symboliczny modelowanie wykorzystuje rysunki, diagramy i formuły jako modele. Odzwierciedlają w symbolicznej formie pewne właściwości oryginału. Rodzaj modelowania symbolicznego to modelowanie matematyczne tworzone za pomocą matematyki i logiki. Polega na tworzeniu układów równań opisujących badane zjawisko naturalne i ich rozwiązywaniu w różnych warunkach. Komputer modelowanie stało się ostatnio powszechne (Sadokhin A.P., 2007).

Różnorodność metod wiedzy naukowej stwarza trudności w ich zastosowaniu i zrozumieniu ich roli. Problemy te rozwiązuje specjalna dziedzina wiedzy – metodologia. Głównym celem metodologii jest badanie genezy, istoty, skuteczności i rozwoju metod poznania.


Zamknąć