autonomiczny stan federalny

instytucja edukacyjna

wyższe wykształcenie zawodowe

„SYBERYJSKA FEDERALNA UNIWERSYTET”

Instytut Podstawowych Biologii i Biotechnologii

Zakład Biologii Medycznej

PRACA PISEMNA

Środowisko a choroba cywilizacyjna - Cukrzyca.

Wykładowca ______________22.12.15 Nie dotyczy Setków

Student BB15-05M _______ 22.12.15 Yu.S. Shangina

Student BB15-05M _______ 22.12.15 D. Garbich

Student BB15-05M _______ 22.12.15 O.P. Bakhariewa

Choroby cywilizacji

Choroby cywilizacyjne - choroby człowieka związane z niemocą duchową, naruszeniem norm moralnych i mechanizmów adaptacji do niekorzystnych czynników antropogenicznie zmienionego środowiska w kontekście szybkiego rozwoju postępu naukowo-technicznego.

Era rolnicza, pomimo całej ciężkości pracy chłopów, wiązała się z dużą ilością informacji proprioceptywnych. Dobroczynne działanie słońca, deszczu, wiatru, obrazów i zapachów lasów, łąk i pól spadło na narządy zmysłów ze skurczów mięśni. Życie toczyło się powoli i podlegało rytmom natury. W procesie rozwoju cywilizacji zmieniła się forma organizacji życia ludzkiego. Główne wysiłki nowoczesny mężczyzna mające na celu wyzwolenie z surowych Praca fizyczna oraz do tworzenia coraz bardziej komfortowych warunków życia i zaspokojenia coraz większych pragnień przyjemności.

Aby osiągnąć ten cel, osoba poszła na kilka sposobów:

1. Stworzył narzędzia i środki produkcji, które ułatwiły pracę i otrzymanie życiowych błogosławieństw. Życie współczesnego człowieka zaczęło toczyć się w warunkach większego komfortu. Doprowadziło to do tego, że w ostatnich dziesięcioleciach wielkość aktywności ruchowej wszystkich ludzi

wieczność. Udział pracy fizycznej w produkcji spadł z 90% do 10%.

2. Stworzył przemysł spożywczy. Coraz większe miejsce w żywieniu zaczęły zajmować wysoko oczyszczone i sztucznie syntetyzowane produkty spożywcze, suplementy itp. W przeciwieństwie do nie tak odległych przodków, żywność współczesnego człowieka stała się znacznie mniej zróżnicowana pod względem zestawu produktów naturalnych.

3. Zaczął przekształcać naturę, to znaczy dostosowywać ją do siebie, do swoich potrzeb i komfortu. Wszystko to doprowadziło do zmiany samej natury, czyli tych naturalnych warunków, które ukształtowały ludzkie ciało.

Tym samym zmienione środowisko przyrodnicze i warunki życia coraz bardziej wchodziły w konflikt z mechanizmami adaptacyjnymi, jakie sama natura w swej pierwotnej postaci wytworzyła w procesie swojego rozwoju u człowieka. Oczywiście taka konfrontacja nie może przejść bez śladu nie tylko dla przyrody, ale także dla zdrowia ludzkiego. Można zauważyć następujące główne poważne sprzeczności między ewolucyjną przeszłością człowieka a jego obecnym sposobem życia:

1. Spadek aktywności ruchowej współczesnego człowieka poniżej poziomu, który zapewniał przetrwanie ciała w ewolucji, doprowadził ludzkość do całkowitego braku aktywności fizycznej.

2. Niebezpiecznej sprzeczności między coraz mniejszą aktywnością motoryczną a coraz większym obciążeniem mózgu współczesnego człowieka towarzyszy przeciążenie centralnego system nerwowy, wyższa aktywność nerwowa i psychika.

3. Komfortowe warunki egzystencji ze spadkiem możliwości funkcjonalnych organizmu doprowadziły do ​​rozwoju odtrenowania mechanizmów adaptacyjnych.

4. Rosnące znaczenie w diecie żywności przetworzonej, która wyróżnia się brakiem wielu naturalnych składników i obecnością dużej liczby nienaturalnie syntetyzowanych substancji, doprowadziło do zaburzeń metabolicznych.

5. Przemiany przyrody i postęp naukowo-techniczny człowieka podniosły komfort życia, ale też spowodowały kryzys ekologiczny. Przepływ informacji strukturalnych (m.in. zanieczyszczenia chemiczne wdychanego powietrza, woda pitna, żywność) uległa największym zmianom i to w pewien sposób wpływa na zdrowie człowieka.

Teoria ewolucjonistów mówi o jednym historycznym procesie na Ziemi, w wyniku którego ludzkość zgromadziła ogromne doświadczenie w interakcji z naturą. Ale na obecnym etapie przechodzenia cywilizacji zachodniej do przestrzeni postindustrialnej ludzie stają przed realną możliwością samozniszczenia ludzkości, ponieważ transformująca siła produkcji społecznej stała się porównywalna siłą z procesami naturalnymi. W związku z tym ludzkość stoi przed koniecznością rozwiązania takich globalnych problemów, jak zapobieganie światowej wojnie termojądrowej, zaprzestanie wyścigu zbrojeń, eksploracja kosmosu, ochrona zdrowia i eliminacja najgroźniejszych chorób, ustanowienie niekorzystnych skutki rewolucji naukowo-technicznej i kryzysu ekologicznego. Przejawami tych ostatnich są zmiany zagrażające naturalnym podstawom życia człowieka i negatywnie wpływające na rozwój społeczeństwa: niebezpieczeństwo zmiany funduszu genetycznego, niewystarczające bezpieczeństwo energetyczne, surowcowe i żywnościowe, nierównowaga demograficzna, rosnące zanieczyszczenie środowiska.

Nauka nie ujawniła jeszcze wszystkich szczegółów biologicznych podstaw człowieka, ale zgromadzono wiele faktów dotyczących dziedziczności i zmienności jego cech. Na przykład osłabienie odporności organizmu człowieka na choroby i w efekcie 2,5-krotny wzrost liczby mutacji i defektów genetycznych w ciągu ostatnich 30 lat. W związku z takim globalnym kompleksem negatywnych zjawisk, ich skalą, aktualnością i dynamiką, istnieje niebezpieczeństwo, że kryzys ekologiczny przekształci się w ekologiczną katastrofę. Dziś ludność planety Ziemia ma wybór: albo rozsądne zarządzanie dalszym postępem społecznym, albo śmierć cywilizacji. Problem wyboru strategii działania człowieka należy do kategorii żywotnych.

Nie ma wątpliwości, że medycyna wywarła szczególny wpływ na losy ludzkości. W dużej mierze dzięki jej zasługom sytuacja demograficzna uległa znacznej zmianie. Choroby wywołujące masowe epidemie (dżuma, ospa) zostały pokonane. W wyniku odkrycia nowych metod terapeutycznych oczekiwana długość życia ludzi znacznie się wydłużyła. Znaleziono sposoby leczenia chorób, które wcześniej uważano za nieuleczalne. Podbite choroby zastępowane są jednak nowymi, bardziej okrutnymi i wyrafinowanymi w formie, naśladującymi, próbującymi oszukać układ odpornościowy.

Grupa chorób cywilizacyjnych obejmuje patologie układu sercowo-naczyniowego, nerwowego, odpornościowego, pokarmowego, hormonalnego. Spośród nich choroby sercowo-naczyniowe, onkologiczne, płucne i cukrzyca zajmują czołowe miejsca wśród przyczyn zgonów, niepełnosprawności i czasowej niepełnosprawności. Co sprawia, że ​​te choroby należy wyróżnić w osobnej grupie? Od początku XX wieku zapadalność rośnie wykładniczo. Ustalono, że główną przyczyną tego wzrostu jest stres.

A zatem w naszej epoce - wieku obfitości współczesnych osiągnięć i odkryć (rozszczepienie atomu, loty kosmiczne, modyfikacje genetyczne gatunku, klonowanie, przeszczepianie narządów itp.), śmiertelność z powodu patologii układu krążenia, nowotworów, chorób i urazów neuropsychiatrycznych . „Choroby cywilizacyjne” są obecnie główną przyczyną śmierci ludności. Według amerykańskich lekarzy w drugiej połowie i pod koniec XX wieku 8 chorób jest przyczyną śmierci 85% umierających w średnim i starszym wieku: otyłość, nadciśnienie, miażdżyca, obniżona odporność, choroby autoimmunologiczne, psychiczne depresja, cukrzyca i nowotwory. Wiele z nich jest ze sobą powiązanych, takich jak otyłość, miażdżyca i nadciśnienie, obniżona odporność i nowotwory. Te formy patologii są uważane za najbardziej „ludzkie”, tj. „wychowywany” przez samego człowieka w warunkach cywilizacyjnych.

Definicja cukrzycy i historia odkrycia

Cukrzyca (DM) jest ważnym problemem medycznym i społecznym oraz jednym z priorytetów narodowych systemów opieki zdrowotnej we wszystkich krajach świata. Według komisji ekspertów WHO do tej pory na DM cierpi ponad 60 milionów ludzi na świecie, liczba ta rośnie o 6-10% rocznie, należy się jej podwajać co 10-15 lat. W kolejności od ważności - ta choroba występuje bezpośrednio po chorobach serca i onkologicznych.

Międzynarodowa Klasyfikacja Chorób (ICD 10; 1992) podaje następującą definicję DM: „Heterogeniczny zespół spowodowany bezwzględnym (cukrzyca typu 1) lub względnym (cukrzyca typu 2) niedoborem insuliny, który początkowo powoduje zaburzenie metabolizmu węglowodanów oraz następnie wszystkie rodzaje metabolizmu, co ostatecznie prowadzi do porażki wszystkich funkcjonalnych układów organizmu.

W pierwszych opisach tego patologicznego stanu wyróżniono przede wszystkim jego najbardziej uderzające objawy – utratę płynów (wielomocz) i nieugaszone pragnienie (polidypsja). Termin „cukrzyca” (łac. cukrzyca) został po raz pierwszy użyty przez greckiego lekarza Demetriosa z Apamanii, pochodzi z innej greki. διαβαίνω, co oznacza „przechodzę, przechodzę”.

W 1675 Thomas Willis wykazał, że w przypadku wielomoczu (zwiększonego wydalania moczu) mocz może być „słodki” lub „bez smaku”. W pierwszym przypadku dodał do słowa cukrzyca (łac. cukrzyca) słowo mellitus, co po łacinie oznacza „słodki jak miód” (łac. cukrzyca mellitus), a w drugim – „insipidus”, co oznacza „bez smaku” . Tasteless nazywano moczówką prostą - patologią spowodowaną chorobą nerek (moczówka prosta nerkowa) lub chorobą przysadki i charakteryzującą się naruszeniem wydzielania lub biologicznego działania hormonu antydiuretycznego.

Wraz z pojawieniem się technicznej możliwości oznaczania stężenia glukozy nie tylko w moczu, ale także w surowicy krwi, okazało się, że u większości pacjentów wzrost poziomu cukru we krwi początkowo nie gwarantuje jej wykrywanie w moczu. Dalszy wzrost stężenia glukozy we krwi przekracza wartość progową dla nerek (ok. 10 mmol/l) – rozwija się glikozuria – oznacza się również cukier w moczu. Po raz kolejny trzeba było zmienić wyjaśnienie przyczyn cukrzycy, gdyż okazało się, że mechanizm zatrzymywania cukru przez nerki nie został zaburzony, co oznacza, że ​​nie było „nietrzymania cukru” jako takiego. Jednocześnie poprzednie wyjaśnienie „pasuje” do nowego stanu patologicznego, tzw. „cukrzycy nerkowej” – obniżenia progu nerkowego dla glukozy we krwi (wykrywanie cukru w ​​moczu przy prawidłowym poziomie cukru we krwi).

Tak więc paradygmat „nietrzymania cukru” został porzucony na rzecz paradygmatu „wysokiego cukru we krwi”. Paradygmat ten jest dziś głównym i jedynym narzędziem diagnozowania i oceny skuteczności terapii.

Kilka odkryć doprowadziło do powstania nowego paradygmatu przyczyn cukrzycy, jakim jest niedobór insuliny. W 1889 roku Joseph von Mering i Oskar Minkowski wykazali, że u psa po pancreasektomii pojawiają się objawy cukrzycy. A w 1910 roku Sir Edward Albert Sharpay-Schafer zasugerował, że cukrzyca jest spowodowana niedoborem substancji chemicznej wydzielanej przez wysepki Langerhansa w trzustce. Nazwał tę substancję insuliną, od łacińskiego insula, co oznacza wyspę. Funkcję endokrynną trzustki oraz rolę insuliny w rozwoju cukrzycy potwierdzili w 1921 roku Frederick Banting i Charles Herbert Best. Powtórzyli eksperymenty von Mehringa i Minkowskiego, pokazując, że objawy cukrzycy u psów z trzustką można wyeliminować, wstrzykując im ekstrakt z wysepek Langerhansa od zdrowych psów; Banting, Best i ich współpracownicy (zwłaszcza chemik Collip) oczyścili insulinę wyizolowaną z trzustki bydła i zastosowali ją do leczenia pierwszych pacjentów w 1922 roku. Eksperymenty przeprowadzono na Uniwersytecie w Toronto, zwierzęta laboratoryjne i sprzęt doświadczalny zapewnił John McLeod. Za to odkrycie naukowcy otrzymali w 1923 roku Nagrodę Nobla w dziedzinie medycyny. Szybko zaczęła się rozwijać produkcja insuliny i jej zastosowanie w leczeniu cukrzycy.

Po zakończeniu prac nad otrzymywaniem insuliny John McLeod powrócił do rozpoczętych w 1908 roku badań nad regulacją glukoneogenezy, aw 1932 stwierdził, że przywspółczulny układ nerwowy odgrywa znaczącą rolę w procesach glukoneogenezy w wątrobie.

Jednak gdy tylko opracowano metodę badania insuliny we krwi, okazało się, że u wielu pacjentów z cukrzycą stężenie insuliny we krwi nie tylko nie uległo zmniejszeniu, ale także znacznie się zwiększyło. W 1936 r. Sir Harold Percival Himsworth opublikował artykuł, w którym cukrzyca typu 1 i typu 2 została po raz pierwszy odnotowana jako odrębne choroby. To ponownie zmieniło paradygmat cukrzycy, dzieląc ją na dwa typy – z bezwzględnym niedoborem insuliny (typ 1) i względnym niedoborem insuliny (typ 2). W rezultacie cukrzyca stała się zespołem, który może wystąpić w co najmniej dwóch chorobach: cukrzycy typu 1 lub 2.

Pomimo znaczących osiągnięć diabetologii w ostatnich dziesięcioleciach diagnostyka choroby nadal opiera się na badaniu parametrów metabolizmu węglowodanów.

Od 14 listopada 2006 roku pod auspicjami ONZ obchodzony jest Światowy Dzień Cukrzycy, 14 listopada został wybrany na to wydarzenie w uznaniu zasług Fredericka Granta Bantinga w badaniach nad cukrzycą.

Insulina, jej powstawanie i wydzielanie

Insulina (z łac. insula - wyspa) to hormon o charakterze peptydowym, powstający w komórkach beta wysepek Langerhansa trzustki. Ma wieloaspektowy wpływ na metabolizm niemal wszystkich tkanek. Głównym działaniem insuliny jest obniżenie stężenia glukozy we krwi.Jest to małe białko składające się z dwóch łańcuchów polipeptydowych. Łańcuch A zawiera 21 reszt aminokwasowych, łańcuch B - 30 reszt aminokwasowych. W insulinie występują 3 mostki dwusiarczkowe, 2 z nich łączą łańcuchy A i B, 1 mostek S-S łączy 6 i 11 reszt cysteiny w łańcuchu A. Masa cząsteczkowa 6 kDa.

Rycina 1 Struktura insuliny ludzkiej

Trzustka składa się z dwóch rodzajów tkanek o zupełnie różnych funkcjach. W rzeczywistości tkanka trzustki zbudowana jest z małych zrazików - acini, składających się w całości z komórek wydzielających sok trzustkowy (sok trzustkowy, z łac. trzustka - trzustka). Między zrazikami poprzecinane są liczne grupy komórek – tzw. wysepki Langerhansa. Komórki wysp trzustkowych wydzielają hormony biorące udział w regulacji wielu procesów w organizmie. Tak więc trzustka pełni w organizmie dwie ważne funkcje: zewnątrzwydzielniczą i endokrynną. Trzustka ludzka waży od 80 do 90 g.

W wysepce trzustki znajdują się 4 rodzaje komórek, które wydzielają różne hormony:

komórki A- (lub α-) (10-30%) wydzielają glukagon;

komórki B- (lub β-) (60-80%) - insulina i amylina;

komórki D- (lub δ-) (5-10%) - somatostatyna;

Komórki F- (lub γ-) (2-5%) wydzielają polipeptyd trzustkowy (PP).

Tkanka dokrewna trzustki - wysepek Langerhansa - stanowi około 3% całkowitej masy.

Synteza i uwalnianie insuliny to złożony proces, który obejmuje kilka etapów. Początkowo powstaje nieaktywny prekursor hormonu, który po szeregu przemian chemicznych podczas dojrzewania zamienia się w formę aktywną. Insulina jest produkowana przez cały dzień, nie tylko w nocy.

Gen kodujący pierwotną strukturę prekursora insuliny znajduje się na krótkim ramieniu chromosomu 11.

Na rybosomach szorstkiej retikulum endoplazmatycznego syntetyzowany jest peptyd prekursorowy - tzw. preproinsulina. Jest to łańcuch polipeptydowy zbudowany ze 110 reszt aminokwasowych i obejmuje kolejno zlokalizowane: peptyd L, peptyd B, peptyd C i peptyd A.

Niemal natychmiast po syntezie w ER, peptyd sygnałowy (L) jest odcinany od tej cząsteczki, sekwencji 24 aminokwasów, które są niezbędne do przejścia syntetyzowanej cząsteczki przez hydrofobową błonę lipidową ER. Powstaje proinsulina, która jest transportowana do kompleksu Golgiego, a następnie w cysternach, w których zachodzi tzw. dojrzewanie insuliny.

Rycina 2 Etapy syntezy i potranslacyjnej modyfikacji insuliny

1 – wydłużenie peptydu sygnałowego na polirybosomach ER z wytworzeniem preproinsuliny; 2 – odszczepienie peptydu sygnałowego od preproinsuliny; 3 - częściowa proteoliza proinsuliny z wytworzeniem insuliny i peptydu C; 4 - włączenie insuliny i peptydu C do ziarnistości wydzielniczych; 5 - wydzielanie insuliny i peptydu C z komórek β trzustki do krwi.

Komórki beta wysepek Langerhansa są wrażliwe na zmiany poziomu glukozy we krwi; ich uwalnianie insuliny w odpowiedzi na wzrost stężenia glukozy odbywa się zgodnie z następującym mechanizmem:

  • Glukoza jest swobodnie transportowana do komórek beta przez specjalne białko nośnikowe GluT 2.
  • W komórce glukoza ulega glikolizie i jest dalej utleniana w cyklu oddechowym, tworząc ATP; Intensywność syntezy ATP zależy od poziomu glukozy we krwi.
  • ATP reguluje zamykanie kanałów jonowych potasu, prowadząc do depolaryzacji błony.
  • Depolaryzacja powoduje otwarcie kanałów wapniowych bramkowanych napięciem, co prowadzi do przepływu wapnia do komórki.
  • Wzrost poziomu wapnia w komórce aktywuje fosfolipazę C, która rozszczepia jeden z błonowych fosfolipidów - fosfatydyloinozytolu-4,5-bisfosforanu - na inozytol-1,4,5-trifosforan i diacyloglicerynian.
  • Trifosforan inozytolu wiąże się z białkami receptora ER. Prowadzi to do uwolnienia związanego wapnia wewnątrzkomórkowego i gwałtownego wzrostu jego stężenia.
  • Znaczny wzrost stężenia jonów wapnia w komórce prowadzi do uwolnienia wstępnie zsyntetyzowanej insuliny zmagazynowanej w ziarnistościach wydzielniczych.

W dojrzałych ziarnistościach wydzielniczych oprócz insuliny i peptydu C znajdują się jony cynku, amylina oraz niewielkie ilości proinsuliny i formy pośrednie.

Uwalnianie insuliny z komórki następuje przez egzocytozę - dojrzała granulka wydzielnicza zbliża się do błony plazmatycznej i łączy się z nią, a zawartość granulki jest wyciskana z komórki. Zmiana właściwości fizycznych pożywki prowadzi do eliminacji cynku i rozpadu krystalicznej nieaktywnej insuliny na poszczególne cząsteczki wykazujące aktywność biologiczną.

Główne rodzaje cukrzycy

W 1979 roku Komitet Ekspertów Światowej Organizacji Zdrowia (WHO) ds. Cukrzycy zaproponował nowoczesną klasyfikację chorób cukrzycowych.

Istnieją dwie główne formy cukrzycy:

Cukrzyca pierwszego typu (młodzieńcza) - insulinozależna;

Cukrzyca typu II - insulinoniezależna.

1. Cukrzyca typu 1 (młodzieńcza) – insulinozależna. Charakteryzuje się niedoborem insuliny wynikającym ze śmierci komórek beta wysp trzustkowych. Przy tego typu cukrzycy obserwuje się prawie całkowitą (do 90%) śmierć komórek trzustki, w wyniku której przestaje być wytwarzana insulina. Poziom insuliny u takich pacjentów jest minimalny lub praktycznie nie występuje. Przypuszczalną przyczyną śmierci komórki jest wirusowe lub autoimmunologiczne (spowodowane patologią odporności – systemu obronnego organizmu) uszkodzenie trzustki.

Przy braku insuliny glukoza nie dostaje się do komórek. Tłuszcz staje się głównym źródłem energii, a organizm zużywa jego rezerwy. Dlatego pacjenci stają się bardzo szczupli. Kiedy energia jest produkowana z tłuszczu, wątroba przekształca część tłuszczu w ciała ketonowe (aceton). Istnieje nagromadzenie ciał ketonowych - ketoza. Zaczynają być wydalane z moczem (można to ustalić na podstawie analizy moczu pod kątem acetonu). Wymagane jest leczenie insuliną.

Cukrzyca insulinozależna rozwija się głównie w dzieciństwie, młodości i młodym wieku (do 30 lat), ale nie wyklucza się żadnej innej kategorii wiekowej. W dzieciństwie choroba jest cięższa niż w wieku 40 lat i starszych. Czasami rozwija się u osób starszych. Wtedy początek choroby może trwać bardzo długo (5-10 lat) i według zewnętrznych objawów nie różni się od cukrzycy typu 2. W takim przypadku pacjent jest leczony przez długi czas tabletkami, a nie insuliną. Później przestawiają się na insulinę.

Powoduje:

1. czynnik stresu;

2. czynnik dziedziczności jest jedną z najbardziej wiarygodnych hipotez, jakie istnieją dzisiaj;

3. możliwy rozwój cukrzycy jest promowany przez przeniesione choroby zakaźne lub wirusowe;

4. proces autoimmunologiczny.

2. Cukrzyca drugiego typu - insulinoniezależna. Występuje znacznie częściej (prawie cztery do sześciu razy). Rozwija się głównie u osób dorosłych, zwykle po 40 roku życia, znacznie dłużej niż cukrzyca typu 1. Zwykle obejmuje długi etap przedcukrzycowy. Nie towarzyszy temu nagromadzenie ciał ketonowych. W leczeniu nie należy stosować insuliny.

Charakteryzuje się niedoborem insuliny, insulinoopornością komórek organizmu (naruszenie wrażliwości komórek na insulinę) lub naruszeniem procesu tworzenia i przechowywania glikogenu.

W przypadku komórek insulinoopornych trzustka wytwarza insulinę, ale nie wiąże się ona dobrze z receptorami komórkowymi. Dlatego glukoza normalnie nie dostaje się do komórek. Jego stężenie we krwi wzrasta. Na grubi ludzie receptory ulegają zmianom, a insulina jest potrzebna dwa do trzech razy więcej niż osoby o prawidłowej wadze. Dlatego taka cukrzyca typu 2 jest prawdopodobnie związana z niedożywieniem. W takiej sytuacji istnieje szansa na pozbycie się choroby, jeśli schudniesz.

W cukrzycy typu 2 możliwe jest, że część insuliny wydzielanej przez komórki beta jest uszkodzona. Taka insulina nie promuje przewodzenia glukozy do komórek. Produkowana jest również normalna insulina, ale niewystarczająca. Takiej cukrzycy nie da się wyleczyć poprzez utratę wagi.

Do niedawna uważano, że cukrzyca typu 2 dotyka tylko ludzi. średni wiek. Jednak ostatnio ta choroba „staje się młodsza” i może objawiać się wcześniej niż 30 lat. Taką cukrzycę można uznać za objawioną zbyt wcześnie.

W okresie intensywnych procesów starzenia, więdnięcia organizmu, zaburzenia pracy układu hormonalnego (70 lat i więcej) – cukrzycę typu 2 można uznać za jedną z nieuniknionych chorób.

Cukrzyca typu 2 występuje najczęściej u osób z nadwagą. Istnieje jednak niewielki odsetek osób chorych, które nie są otyłe (około jeden na dziesięciu pacjentów). Cukrzycy Lean nie doświadczają wielu problemów medycznych (nadwaga, ciśnienie krwi i wysoki poziom tłuszczu we krwi), które ma większość diabetyków.

Powoduje:

1. otyłość;

2. naruszenie metabolizmu tłuszczów;

3. przebyta cukrzyca w czasie ciąży;

4. narodziny dziecka o dużej masie ciała;

5. niewłaściwe odżywianie;

6. hipodynamia prowadząca do nadwagi;

7. stres;

8. przewlekłe choroby trzustki;

9. choroba wątroby;

10. zaawansowany wiek;

11. dziedziczność.

Diagnoza cukrzycy

· Wszyscy pacjenci powyżej 45 roku życia (powtarzać co 3 lata, jeśli wynik testu jest negatywny).

· Młodsi pacjenci w obecności wymienionych znaków na ekranie. A także do badań przesiewowych (scentralizowanych i zdecentralizowanych) DM WHO zaleca oznaczanie glukozy i hemoglobiny A1c.

Hemoglobina glikozylowana (HbA1c) to hemoglobina, w której cząsteczka glukozy kondensuje do β-końcowej waliny łańcucha β

cząsteczki hemoglobiny. Zawartość HbA1c ma bezpośrednią korelację z poziomem glukozy we krwi i jest zintegrowanym wskaźnikiem kompensacji metabolizmu węglowodanów w ciągu ostatnich 60-90 dni. Szybkość tworzenia HbA1c zależy od wielkości hiperglikemii, a normalizacja jej poziomu we krwi następuje po 4-6 tygodniach od osiągnięcia euglikemii. W związku z tym zawartość HbA1c określa się w

czy konieczne jest kontrolowanie metabolizmu węglowodanów i potwierdzanie jego kompensacji u pacjentów z cukrzycą przez długi czas. Zgodnie z zaleceniem WHO (2002) oznaczenie zawartości HbA1c we krwi chorych na cukrzycę powinno być wykonywane raz na kwartał. Wskaźnik ten jest szeroko stosowany zarówno w badaniach przesiewowych populacji, jak i kobiet w ciąży w celu wykrycia zaburzeń gospodarki węglowodanowej oraz kontroli leczenia pacjentów z cukrzycą.

Cukrzyca typu 1 jest przewlekłą chorobą autoimmunologiczną, której towarzyszy zniszczenie komórek β wysepek Langerhansa, dlatego bardzo ważne jest wczesne i dokładne rokowanie choroby na etapie przedklinicznym (bezobjawowym). Zatrzyma to niszczenie komórek i zachowa masę komórek β tak bardzo, jak to możliwe. Autoimmunologiczne mechanizmy niszczenia komórek mogą być dziedziczne i/lub wywołane przez niektóre czynniki zewnętrzne, takie jak infekcje wirusowe, narażenie na substancje toksyczne i różne formy stresu.

Według współczesnych koncepcji cukrzyca typu 1, pomimo ostrego początku, ma długi okres utajony. Zwyczajowo rozróżnia się sześć etapów rozwoju choroby. Pierwszy etap, predyspozycje genetyczne, charakteryzuje się obecnością lub brakiem genów związanych z cukrzycą typu 1. Najbardziej informacyjnymi markerami genetycznymi DM typu I są antygeny HLA. Duże znaczenie ma obecność antygenów HLA, zwłaszcza klasy II – DR 3, DR 4 i DQ. W takim przypadku ryzyko zachorowania wzrasta wielokrotnie. Do tej pory za predyspozycje genetyczne do rozwoju cukrzycy typu 1 uważa się połączenie różnych alleli prawidłowych genów.

Wykrycie ICA ma największą wartość prognostyczną w rozwoju DM typu I. Pojawiają się 1-8 lat przed kliniczną manifestacją choroby. O wysokiej wartości prognostycznej określania ICA decyduje również fakt, że u pacjentów z ICA, nawet przy braku objawów cukrzycy, ostatecznie rozwija się również DM typu I. Dlatego oznaczenie ICA jest przydatne we wczesnej diagnostyce tej choroby. Ich wykrycie pozwala klinicyście dobrać dietę i przeprowadzić terapię immunokorekcyjną. W zależności od cech immunologicznych typu I DM wyróżnia się typ A1, w którym częstość wykrywania autoprzeciwciał po rozwoju obrazu klinicznego sięga 90%, a po roku spada do 20%, oraz typ B1, w którym utrzymywanie się autoprzeciwciał utrzymuje się przez długi czas.

Fosfataza tyrozynowa jest drugim odkrytym autoantygenem komórek wysp trzustkowych, zlokalizowanym w gęstych ziarnistościach komórek beta trzustki. Wraz z przeciwciałami przeciwko insulinie IA2 występuje częściej u dzieci niż u dorosłych. Wartość kliniczna określenia IA2 jest ważna dla identyfikacji predysponowanych osób i krewnych pacjentów z cukrzycą z genetyczną predyspozycją do cukrzycy typu I w populacji. IA2 wskazują na agresywną destrukcję komórek β.

Przeciwciała przeciwko insulinie (IAA) i przeciwciała przeciwko dekarboksylazie kwasu glutaminowego (GAD) - IAA są wykrywane w surowicy krwi pacjentów z cukrzycą typu 1 jeszcze przed przepisaniem insulinoterapii. Mają wyraźną korelację z wiekiem.

W ostatnie lata znaleziono antygen, który jest głównym celem dla autoprzeciwciał związanych z rozwojem cukrzycy insulinozależnej – GAD. Jest to enzym błonowy, który biosyntetyzuje neuroprzekaźnik hamujący OUN, kwas gamma-aminomasłowy.

Obecność autoprzeciwciał przeciwko ICA, IAA i GAD wiąże się z około 50% ryzykiem rozwoju cukrzycy typu 1 w ciągu 5 lat i 80% ryzykiem rozwoju cukrzycy typu I w ciągu 10 lat. Oznaczanie przeciwciał przeciwko składnikom komórkowym komórek β wysp Langerhansa, przeciwko dekarboksylazie kwasu glutaminowego i insulinie we krwi obwodowej jest ważne dla identyfikacji predysponowanych osób i krewnych pacjentów w populacji

DM z genetyczną predyspozycją do tej choroby.

Slajd 8 - Do diagnozy i monitorowania cukrzycy stosuje się następujące badania laboratoryjne (zgodnie z zaleceniami WHO z 2002 r.): rutynowe badania laboratoryjne oraz slajd 9 - dodatkowe badania laboratoryjne - pozwalające na bardziej szczegółowe monitorowanie cukrzycy.

Badanie glukozy we krwi: na czczo określa się zawartość glukozy we krwi włośniczkowej (krew z palca). Test tolerancji glukozy: na czczo przyjąć około 75 g glukozy rozpuszczonej w 1-1,5 szklankach wody, następnie po 0,5, 2 godzinach określić stężenie glukozy we krwi.

Analiza moczu dla glukozy i ciał ketonowych: Wykrycie ciał ketonowych i glukozy potwierdza diagnozę cukrzycy.

Oznaczanie insuliny i peptydu C we krwi: w pierwszym typie cukrzycy ilość insuliny i peptydu C jest znacznie zmniejszona, a w drugim typie wartości mieszczą się w normalnym zakresie. Pomiar peptydu C ma szereg zalet w porównaniu z oznaczaniem insuliny: okres półtrwania peptydu C w krążeniu jest dłuższy niż insuliny, więc poziom peptydu C jest bardziej stabilnym wskaźnikiem niż stężenie insuliny. W analizie immunologicznej peptyd C nie krzyżuje się z insuliną, dzięki czemu pomiar peptydu C umożliwia ocenę wydzielania insuliny nawet w obecności insuliny egzogennej, a także w obecności autoprzeciwciał insulinowych, co jest istotne podczas badania pacjentów z cukrzycą insulinozależną.

Powikłania cukrzycy

Cukrzyca jest jedną z najgroźniejszych chorób pod względem powikłań. Jeśli niedbale traktujesz swoje samopoczucie, nie przestrzegaj diety, choroba przyjdzie z dużym prawdopodobieństwem. A wtedy brak leczenia z konieczności objawi się całym kompleksem komplikacji, które są podzielone na kilka grup:

  • Ostry
  • Późno
  • Chroniczny

Ostre powikłania

Ostre powikłania cukrzycy stanowią największe zagrożenie dla życia człowieka. Powikłania te obejmują stany, które rozwijają się w bardzo krótkim czasie: kilka godzin, w najlepszym wypadku kilka dni. Z reguły wszystkie te stany są śmiertelne, a wykwalifikowana pomoc jest wymagana bardzo szybko.

Istnieje kilka opcji ostrych powikłań cukrzycy, z których każda ma przyczyny i określone objawy. Podajemy najczęstsze:

Powikłanie

Przyczyna

Objawy, konsekwencje

Grupa ryzyka

Kwasica ketonowa

Nagromadzenie we krwi produktów przemiany materii (metabolizm) tłuszczów, tj. niebezpieczne ciała ketonowe. Przyczyń się do tej niezdrowej diety, kontuzji, operacji.

Utrata przytomności, gwałtowne naruszenie pracy ważnych narządów

Pacjenci z cukrzycą typu 1

hipoglikemia

Skrajny spadek poziomu cukru we krwi. Przyczyny: przedawkowanie leków, nadmierne spożycie alkoholu, nadmierne ćwiczenia fizyczne

Utrata przytomności, gwałtowny skok poziomu cukru we krwi w krótkim czasie, brak reakcji źrenic na światło, zwiększone pocenie się i drgawki. Skrajną formą jest śpiączka.

śpiączka hiperosmolarna

Podwyższony poziom sodu i glukozy we krwi. Zawsze rozwija się na tle przedłużonego odwodnienia.

Polidypsja (nieugaszone pragnienie), wielomocz (zwiększone oddawanie moczu).

Pacjenci z cukrzycą typu 2, najczęściej osoby starsze

śpiączka mlekowa

Nagromadzenie kwasu mlekowego we krwi. Rozwija się na tle niewydolności sercowo-naczyniowej, nerek i wątroby.

Splątanie, niewydolność oddechowa, obniżenie ciśnienia krwi, brak oddawania moczu.

Pacjenci w wieku powyżej 50 lat

Większość z tych powikłań rozwija się bardzo szybko, w ciągu zaledwie kilku godzin. Ale śpiączka hiperosmolarna może objawiać się kilka dni, a nawet tygodni przed krytycznym momentem. Bardzo trudno jest z góry określić możliwość wystąpienia tak ostrego stanu. Na tle wszystkich dolegliwości, których doświadcza pacjent, specyficzne objawy najczęściej nie są zauważalne.

Późniejsze konsekwencje

Późne powikłania rozwijają się przez kilka lat choroby. Ich niebezpieczeństwo nie polega na ostrej manifestacji, ale na tym, że stopniowo pogarszają stan pacjenta. Nawet obecność właściwego leczenia czasami nie może zagwarantować ochrony przed tego typu powikłaniami.

Późne powikłania cukrzycy obejmują:

1. Retinopatia - uszkodzenie siatkówki, które następnie prowadzi do krwotoku w dnie oka, odwarstwienie siatkówki. Stopniowo prowadzi do całkowitej utraty wzroku. Najczęściej retinopatia występuje u pacjentów z cukrzycą typu 2. U pacjenta z „doświadczeniem” powyżej 20 lat ryzyko retinopatii zbliża się do 100%.

2. Angiopatia. W porównaniu z innymi późnymi powikłaniami rozwija się dość szybko, czasami w mniej niż rok. Jest to naruszenie przepuszczalności naczyń krwionośnych, stają się one kruche. Istnieje tendencja do zakrzepicy i miażdżycy.

3. Polineuropatia. Utrata czucia bólu i ciepła w kończynach. Najczęściej rozwija się typu „rękawiczki i pończochy”, zaczynając pojawiać się jednocześnie w kończynach dolnych i górnych. Pierwsze objawy to uczucie drętwienia i pieczenia kończyn, które w nocy znacznie się pogarszają. Zmniejszona wrażliwość powoduje wiele kontuzji.

4. Stopa cukrzycowa. Powikłanie, w którym na stopach i kończynach dolnych chorego na cukrzycę pojawiają się otwarte owrzodzenia, ropne ropnie, obszary martwicze (martwe). Dlatego chorzy na cukrzycę powinni zwracać szczególną uwagę na higienę stóp i dobór odpowiednich butów, które nie uciskają stopy. Powinieneś również używać specjalnych skarpet bez uciskania gumek.

Powikłania przewlekłe

Przez 10-15 lat choroby, nawet jeśli pacjent spełnia wszystkie wymagania leczenia, cukrzyca stopniowo niszczy organizm i prowadzi do rozwoju poważnych chorób przewlekłych. Biorąc pod uwagę, że w cukrzycy skład krwi zmienia się znacząco w kierunku patologicznym, można spodziewać się chronicznego uszkodzenia wszystkich narządów.

1. Statki. Przede wszystkim w cukrzycy cierpią naczynia krwionośne. Ich ściany stają się coraz mniej przepuszczalne dla składników odżywczych, a światło naczyń stopniowo się zwęża. Wszystkie tkanki ciała mają niedobór tlenu i innych ważnych substancji. Znacznie wzrasta ryzyko zawału serca, udaru mózgu i rozwoju chorób serca.

2. nerki. Nerki chorego na cukrzycę stopniowo tracą zdolność do wykonywania swoich funkcji i rozwija się przewlekła niewydolność. Najpierw pojawia się mikroalbuminuria – wydalanie z moczem białka takiego jak albumina, które jest niebezpieczne dla zdrowia.

3. Skóra. Dopływ krwi do tego narządu u pacjenta z cukrzycą jest znacznie zmniejszony, co prowadzi do ciągłego rozwoju owrzodzeń troficznych. Mogą stać się źródłem infekcji lub infekcji.

4. System nerwowy. Układ nerwowy diabetyków ulega znacznym zmianom. Mówiliśmy już o zespole niewrażliwości kończyn. Ponadto w kończynach występuje ciągłe osłabienie. Często diabetycy cierpią z powodu silnego przewlekłego bólu.

Leczenie cukrzycy

Cukrzycy nie da się jeszcze wyleczyć, ale jak mówią lekarze, można to zrekompensować. Obecnie na świecie zachodzą zmiany w zakresie leczenia cukrzycy, które mogą mieć pozytywny wpływ na metody kompensacji, a być może w przyszłości na leczenie cukrzycy.

Leczenie cukrzycy różni się od leczenia wielu innych chorób. Wynika to z faktu postawienia diagnozy, a zatem leczenia nie rozpoczyna się od momentu naruszenia metabolizmu węglowodanów, który jest wykrywany podczas różnych testów wysiłkowych, ale tylko wtedy, gdy istnieją wyraźne kliniczne objawy choroby.

Wybór terapii zależy od wielu czynników i może być różny w zależności od indywidualnych cech pacjenta.

Leczenie cukrzycy II

W tej chorobie wchłanianie cukru z jelit jest normalne, ale jego przejście z krwi do różnych komórek ciała jest zaburzone. W niektórych przypadkach problem ten, przynajmniej na początku choroby, można rozwiązać bez leków - za pomocą diety i stylu życia zaleconego przez lekarza. Dieta jest obowiązkowym elementem kompleksowej terapii, a u niektórych pacjentów może być stosowana jako samodzielna metoda leczenia.

Leki przepisywane na cukrzycę typu II nie zawierają insuliny. Najczęściej stosowane tabletki stymulują produkcję insuliny przez komórki trzustki. Najnowocześniejszy lek, należący do nowej klasy chemicznej o międzynarodowej nazwie repaglinid, ma krótki czas działania. Zażywa się ją bezpośrednio przed posiłkiem, a produkcja insuliny następuje dokładnie wtedy, kiedy jest potrzebna, czyli po posiłku. Leki z grupy sulfonylomoczników znacznie dłużej stymulują produkcję insuliny, co wymusza przestrzeganie ścisłej diety.

Grupa biguanidów należy do szeregu rzadziej stosowanych preparatów w tabletkach. Wzmacniają wchłanianie cukru do komórek i są podawane głównie otyłym diabetykom, którym nie udaje się schudnąć.

Te grupy leków są skuteczne, o ile pacjenci mogą samodzielnie wytwarzać wystarczającą ilość insuliny. U wielu pacjentów z cukrzycą II tabletki stają się nieskuteczne, a następnie nie da się uniknąć przejścia na insulinę. Ponadto mogą wystąpić okresy, np. podczas ciężkich chorób, kiedy dotychczasowe skuteczne leczenie tabletkami musi być czasowo zastąpione leczeniem insuliną.

Cukrzyca I leczenie

Leczenie insuliną powinno zastąpić pracę trzustki. Praca ta składa się z dwóch części: określenia poziomu cukru we krwi oraz uwolnienia odpowiedniej ilości insuliny.

Zaopatrzenie organizmu w insulinę jest dość proste. Jedynym sposobem podania jest iniekcja, w tabletkach jest niszczona przez sok żołądkowy. Insulina wstrzykiwana do organizmu przez wstrzyknięcie podskórne działa tak samo dobrze jak insulina wytwarzana przez trzustkę. Zastrzyki z insuliny pomagają komórkom organizmu wchłaniać cukier z krwi.

Druga część pracy trzustki to określenie poziomu cukru we krwi oraz momentu, w którym konieczne jest wydzielanie insuliny. Zdrowa trzustka „odczuwa” wzrost poziomu cukru we krwi po posiłku i odpowiednio reguluje ilość uwalnianej insuliny. Z pomocą lekarza ważne jest, aby nauczyć się łączyć czas jedzenia i czas iniekcji, aby stale utrzymywać normalny poziom poziom cukru we krwi w celu uniknięcia wysokiego (hiperglikemia) lub niskiego (hipoglikemia) poziomu.

Istnieje kilka rodzajów preparatów insulinowych. Twój lekarz pomoże Ci zdecydować, który lek jest najlepszy do kontrolowania poziomu cukru we krwi i jak często go przyjmować.

Bibliografia

1. Klasyfikacja cukrzycy, M.M. Petrova, doktor nauk medycznych, prof. O.B. Kurumchin, GA Kirichkova, Biuletyn Szpitala Klinicznego nr 51;

2. Współczesne aspekty patogenezy cukrzycy typu 1, T.V. Nikonova, artykuł, czasopismo „Diabetes Mellitus”;

3. Insulinooporność w patogenezie cukrzycy typu 2, M.I. Bałabolkin, E.M. Klebanov, artykuł, Journal „Cukrzyca”;

4. Cukrzyca typu 2: nowe aspekty patogenezy choroby, Mukhamedzhanov E.K., Esyrev O.V., artykuł, czasopismo „Diabetes Mellitus”;

5. Synteza i wydzielanie insuliny Tryb dostępu: http://www.biochemistry.ru/dm/dm2.htm (dostęp 16.12.2015)

6. Fizjologia i hormonalna regulacja funkcji fizjologicznych. Gruczoły dokrewne. Tryb dostępu do trzustki: http://www.bibliotekar.ru/447/75.htm (dostęp 12/16/2015)

7. Grupa spółek BioChemMac Diagnostyka cukrzycy

Współczesny etap rozwoju heurystyki rozpoczyna się w drugiej połowie XX wieku. i wiąże się z pojawieniem się cybernetyka oraz potrzebę opracowania systemów heurystycznych wyszukiwania dla działalności naukowej i wynalazczej. Cybernetyka powstaje jako nauka, która bada Ogólna charakterystyka procesy i systemy sterowania w urządzeniach technicznych, organizmach żywych i społecznościach ludzkich. Głównymi zadaniami heurystyk są poznanie, selekcja, opis i modelowanie sytuacji, w których przejawia się aktywność heurystyczna.

W tym samym czasie pojawienie się prac D. Poya o pedagogice związanej z heurystyką, podsumowując jej rozwój na poprzednim etapie i zarysowując perspektywy. W pracach Polyi po raz pierwszy rozważano potrzebę wczesnego, celowego treningu umiejętności heurystycznych, na przykładzie nie tylko problemów matematycznych. Heurystyka jest teraz rozumiana jako:

1. Specjalne metody twórczego rozwiązywania problemów.

2. Organizacja procesu produktywnego myślenia twórczego.

3. Sposób pisania programów komputerowych (programowanie heurystyczne).

4. Nauka badająca aktywność heurystyczną, specjalny dział nauki o myśleniu.

5. Specjalna metoda nauczania lub zbiorowego rozwiązywania problemów.

Specjalne metody kreatywnego rozwiązywania problemów nazywane są „nowoczesna heurystyka”.

Z powyższej definicji wynika, że ​​rozumienie heurystyki jako nauki na obecnym etapie duży wpływ dostarczane przez cybernetykę. Nacisk w badaniach zaczął się przesuwać z uzyskiwania wyniku na organizowanie aktywności intelektualnej w celu jego uzyskania.

Heurystyka wywodzi się z psychologii myślenia. Za główny przedmiot badań uważa organizację produktywnej aktywności intelektualnej, opartej na aktach umysłowych, za pomocą której odbywa się proces poszukiwania heurystycznego. Głównym przedmiotem badań heurystyk jest badanie sposobów wyszukiwania i generowania informacji przy ich pomocy w znajdowaniu rozwiązań. Osoba, która rozwiązuje problem, stawia hipotezy. Hipoteza- odbiór aktywności poznawczej, czyli zbiór założeń dotyczących sposobu osiągnięcia celu. Na wczesnych etapach brakuje mu informacji o przedmioty(przedmioty myśli). Późniejsza akumulacja informacji pozwala coraz bardziej racjonalnie przewidywać ścieżkę rozwiązania.

Główne zadania heurystyki jako nauki to:

Znajomość wzorców procesów produkcyjnych na podstawie psychologicznych cech ich przebiegu;

Identyfikacja i opis rzeczywistych sytuacji, w których manifestuje się heurystyczna aktywność osoby;

Poznanie zasad organizacji modele(sztuczne obiekty ukazujące i odtwarzające w uproszczonej formie główną strukturę badanej rzeczywistości, w przeciwieństwie do ideał obiekt) dla aktywności heurystycznej.

Idealny obiekt- nieistniejące w rzeczywistości, ale odzwierciedlające pewne, z reguły - ogólne, właściwości rzeczywistych obiektów i służące jako heurystyczne narzędzie ich naukowego badania.

Ponadto zadania współczesnej heurystyki obejmują:

Ustalenie poziomów poznania obiektów, co pozwala opisać ich strukturę i przewidzieć dynamikę rozwoju;

Projektowanie urządzeń technicznych realizujących prawa działania heurystycznego.

W rzeczywistości zdolność ludzkiego myślenia do dokonania wyboru, który zmniejsza liczbę możliwych opcji znalezienia rozwiązania problemu, można przypisać heurystycznym cechom poziomów poznania. Na przykład osoba jest w stanie operować abstrakcje(abstrakcja jest wynikiem mentalnego wyabstrahowania pewnych właściwości z innych właściwości danego przedmiotu), aby rozdzielić wszystkie przedmioty dane mu w zadaniu rasy I typy i na tej podstawie wybrać możliwe sposoby rozwiązania problemu.

Rodzaj - najogólniejsza klasa obiektów jednoczących gatunki. Ogólna koncepcja to ogólny termin, który obejmuje koncepcje gatunków. Ta dystrybucja jest poprzedzona abstrakcją specyficzne cechy(właściwości, które odróżniają obiekty jednego rodzaju od drugiego).

Zdolność do dokonania abstrakcyjnego wyboru przedstawia poniższy diagram:

Percepcja ------ Ocena, analiza ------ Działanie

Jeśli podejdziemy do działania heurystycznego jako konkretna czynność o przetwarzaniu informacji, wtedy możemy również mówić o heurystyce komputerowej, czyli że działania heurystyczne są wykonywane przez komputer na podstawie programów przygotowanych przez człowieka.

Heurystyczna działalność człowieka opiera się na uogólnionym doświadczeniu stosowania skutecznych strategii, które mają na celu formułowanie decyzji. W jednym przypadku są to środki zredukowanego stawiania hipotez, po których następuje szczegółowe uzasadnienie decyzji, w drugim są to środki zredukowanego poszukiwania obszaru hipotetycznego rozwiązania. W obu przypadkach aktywność heurystyczna jest obiektywną działalnością osoby, która kumuluje się w doświadczeniu i regułach heurystyki na podstawie uogólnień i abstrahowania od jej konkretnych przejawów.

Z powyższego wynika, że ​​na obecnym etapie aktywność heurystyczna jest złożonym i wieloaspektowym typem ludzkiej aktywności intelektualnej, w dużej mierze ukrytym i nie dającym się obiektywnie zbadać i opisać w ramach jednej nauki. Ponieważ heurystyka jest zawsze odpowiedzią na kompleks pytanie(pytanie jest formą myślenia wyrażającą wymóg informacji o określonym przedmiocie), to każda dziedzina nauki badająca ludzki intelekt z konieczności dotyczy pewnych aspektów organizacji procesów twórczych, do których należy aktywność heurystyczna. Wszystko to uzasadnia potrzebę budowania nauka specjalna- heurystyka – oparta na dorobku naukowym innych dyscyplin; nauka ta, posługując się swoimi metodami uogólniania i badań, badałaby specyficzną właściwość ludzkiego intelektu - aktywność heurystyczną. Heurystyki powinny również badać prawidłowości takich działań w cybernetyce technicznej.

Za główny przedmiot badań współczesna heurystyka uważa oczywiście nie elementarne operacje intelektu (takie jak np. rozmieszczenie obiektów według rodzajów i gatunków), ale metody wyszukiwania i generowania informacji (choć oparte na elementarnych operacjach ), aby znaleźć rozwiązania.

Oprócz modelowania sytuacji produkcyjnych związanych z kształtowaniem umiejętności zawodowych specjalistów do podejmowania decyzji zarządczych, organizowania produkcji, opracowywania planów jej rozwoju, możliwe jest modelowanie treści merytorycznych i społecznych opanowanych działalność zawodowa w inżynierii gry biznesowe Oh.

Inżynieria gier biznesowych może stać się całą klasą gier edukacyjnych na politechnice. Ich wykorzystanie w procesie edukacyjnym pozwala już na pierwszym roku ustalać przedmiotowe i społeczne konteksty aktywności zawodowej, określać warunki do rozwoju teoretycznego i praktyczne myślenie inżynier, jego umiejętność pracy w zespole, inicjatywa, odpowiedzialność. Ogólne umiejętności inżynierskie obejmują analizę sytuacji zawodowych, wyznaczanie celów, wybór optymalnego rozwiązania problemów technicznych, ich opcji, przetwarzanie i prezentację danych, analizę i ocenę osiągniętych wyników.

Systematyczne przyswajanie umiejętności przedmiotowych i społecznych w procesie inżynierskiej gry biznesowej przyczynia się do rozwoju osobowości aktywnej twórczo, kompetentnej zawodowo i społecznie inżyniera nowej formacji, spełniającej wymagania czasów.

7. Heurystyczne technologie uczenia się

7.1. Wprowadzenie do heurystyki

Od najdawniejszych czasów naukowcy i filozofowie zastanawiali się nad następującymi pytaniami: jak prowadzić badania, aby doprowadziły do ​​odkrycia nowej wiedzy? Jak prawidłowo rozwiązywać pojawiające się problemy? Jak zorganizować swoją aktywność umysłową, aby przebiegała bardziej celowo i produktywnie? Takie pytania nie uzyskały jednoznacznej odpowiedzi, ale stopniowo ich badanie nabierało coraz głębszego charakteru. Uznano więc, że istnieją odmienne od operacji logicznych wzorce myślenia, które pozwalają organizować aktywność umysłową w taki sposób, aby prowadziła człowieka do nowej wiedzy. Te jakościowe procesy myślowe nazwano heurystycznymi. Dyscypliny naukowe zaczęły badać te procesy, których zadaniem było badanie zachowań intelektualnych człowieka, jego myślenia, procesów jego przepływu. W ten sposób na przecięciu wielu dyscyplin naukowych powstała heurystyka, która w specyficznym przedmiocie badań dokonała syntezy wiedzy z tych dziedzin.

Heurystyka (gr. „odkrywam, szukam, odkrywam”) to nauka badająca wzorce konstruowania nowych działań w nowej sytuacji, tj. organizacja procesów myślenia produktywnego, na podstawie której intensyfikuje się proces generowania pomysłów (hipotez) i konsekwentnie zwiększa ich wiarygodność (prawdopodobieństwo, wiarygodność).

Od samego początku heurystyki, wraz z analizą procesów działania heurystycznego, badano również możliwości celowego nauczania tej działalności, tj. heurystyka miała kontakt z pedagogiką. Stopniowo wyraźnie zidentyfikowano jeden z kierunków rozwoju heurystyki – heurystykę pedagogiczną, która pomaga odpowiedzieć na pytanie: jak uczyć czynności heurystycznych? Rozważa fundamentalne kwestie organizacji aktywności umysłowej w procesie

1 Rozdział zbudowany jest z materiałów książki: Sokolov V.N. Heurystyki pedagogiczne. M., 1995.

Projektowanie pedagogiczne i technologie pedagogiczne 205

nauka, tj. w procesie opanowania przedmiotów składających się na system wiedzy zawodowej.

Dzisiejsza heurystyka pedagogiczna, podobnie jak heurystyka w ogóle, przechodzi okres formowania się, kiedy na podstawie dużego eksperymentalnego i praktyczny materiał powstają teorie i wyznaczane są strategiczne kierunki badań. Wymieńmy niektóre z nich. Historia heurystyki i jej pedagogicznej gałęzi wymaga obiektywnej oceny, przemyślenia z punktu widzenia współczesnych idei pedagogicznych. Wiele prac naukowców z przeszłości związanych z heurystyką było mało zbadanych, albo dlatego, że wyprzedzały swoje czasy i nie były rozumiane przez współczesnych, a teraz stanowią dużą i ważną warstwę ludzkiej myśli, albo z powodu braku publikacji w języku rosyjskim , który faktycznie na długo zamknął dostęp do kompleksowych i obiektywnych badań. Pilnym problemem jest dziś naukowy (a nie empiryczny!) rozwój metodologicznego poziomu badań heurystycznych, tj. tłumaczenie teorii, idei, zapisów naukowych na "język instrumentalny", do poziomu technologie pedagogiczne. Teoria edukacyjnych systemów i metod heurystycznych wymaga dalszego rozwoju. Niezbędne jest tworzenie opartych na nauce systemów poszukiwania rozwiązań problemów z różnych obszarów tematycznych (matematyka, fizyka, chemia itp.). Systemy te stanowią dobrą podstawę do rozwoju zawodowych umiejętności twórczych studentów odpowiednich specjalności. Jednocześnie pojawia się problem tworzenia i rozwijania systemów i metod heurystycznych dla różnych obszarów zawodowych.

7.2. Obecny etap rozwoju heurystyk

Obecny etap rozwoju heurystyki jako nauki wiąże się z pojawieniem się cybernetyki (lata 50.) i charakteryzuje się intensywnymi badaniami heurystycznej działalności człowieka. Ponadto, w związku z ilościowo zgromadzonymi informacjami, uwaga badaczy skupia się na pojęciowej definicji heurystyki. Poprzez heurystyki zaczynają rozumieć: 1. Specjalne metody rozwiązywania problemów (metody heurystyczne), które zwykle są przeciwstawne formalnym metodom rozwiązywania, opartym na dokładnych modelach matematycznych. Zastosowanie metod heurystycznych skraca czas rozwiązywania problemów w porównaniu z metodą całkowitego nieskierowanego wyliczenia możliwych alternatyw; jednocześnie uzyskane rozwiązania z reguły nie należą do najlepszych, ale do zbioru rozwiązań dopuszczalnych; zastosowanie metod heurystycznych nie zawsze zapewnia osiągnięcie celu.

2. Organizacja procesu produktywnego myślenia twórczego (działanie heurystyczne). W tym przypadku heurystyka jest rozumiana jako zespół mechanizmów tkwiących w człowieku, za pomocą których generowane są procedury mające na celu rozwiązanie problemów twórczych (np. mechanizmy nawiązywania relacji sytuacyjnych w sytuacji problemowej, odcinanie mało obiecujących gałęzi w drzewo opcji, formułowanie kontrprzykładów itp. ). Te mechanizmy rozwiązywania problemów twórczych mają charakter uniwersalny i nie zależą od treści konkretnego rozwiązywanego problemu.

3. Sposób pisania programów komputerowych (programowanie heurystyczne). Jeśli w programowaniu konwencjonalnym programista koduje gotową metodę rozwiązania matematycznego do postaci zrozumiałej dla komputera, to w przypadku programowania heurystycznego stara się sformalizować zrozumiałą intuicyjnie metodę rozwiązania problemu, którą jego zdaniem człowiek używa przy rozwiązywaniu takich problemów.

4. Nauka badająca aktywność heurystyczną; specjalna gałąź nauki o myśleniu. Jej głównym celem jest twórcza działalność człowieka; najważniejsze problemy związane z modelami podejmowania decyzji, poszukiwanie nowych strukturalizacji opisów świata zewnętrznego dla podmiotu i społeczeństwa. Heurystyka jako nauka rozwija się na przecięciu psychologii, teorii sztucznej inteligencji, lingwistyki strukturalnej i teorii informacji.

5. Specjalna metoda nauczania lub zbiorowego rozwiązywania problemów. Rozważane definicje heurystyki pokazują, że aktywność heurystyczna jest złożonym, wieloaspektowym, wieloaspektowym rodzajem działalności człowieka. Syntetyzując powyższe poszczególne aspekty rozumienia heurystyki, można sformułować pojęciową definicję heurystyki. Heurystyka jest rozumiana jako nauka badająca wzorce konstruowania nowych działań w nowej sytuacji. Nowa sytuacja to problem, który nie został przez nikogo rozwiązany lub niewynalezione urządzenie techniczne, którego potrzeba została zidentyfikowana. (Sytuacja będzie również nowa, gdy uczeń spotka się z niestandardowym zadaniem na swoim poziomie.) Wchodząc w nową sytuację, osoba szuka sposobów i środków rozwiązania tej sytuacji, sposobów, których wcześniej nie spotkał w swojej praktyce i czego jeszcze nie jest świadomy. Jeśli sytuacja nie jest nowa, to działania ludzkie mają charakter algorytmiczny, tj. pamięta ich kolejność, która z pewnością doprowadzi do celu. W tych działaniach nie ma elementów myślenia heurystycznego, w przeciwieństwie do nowej sytuacji, gdy wynik musi być obiektywnie lub subiektywnie nowy. Obiektywnie – gdy wynik uzyskuje się po raz pierwszy, subiektywnie – gdy wynik jest nowy dla osoby, która go otrzymała. Jako nauka heurystyka rozwiązuje następujące zadania:

Znajomość wzorców procesów produkcyjnych na podstawie psychologicznych cech ich przebiegu;
identyfikacja i opis rzeczywistych sytuacji, w których przejawia się heurystyczna działalność człowieka lub jej elementy;
badanie zasad organizacji warunków aktywności heurystycznej;
modelowanie sytuacji, w których dana osoba wykazuje aktywność heurystyczną w celu zbadania jej przebiegu i organizacji;
tworzenie ukierunkowanych systemów heurystycznych (ogólnych i prywatnych) w oparciu o znane obiektywne wzorce aktywności heurystycznej;
projektowanie urządzeń technicznych realizujących prawa działania heurystycznego.

7.3. Heurystyczna działalność edukacyjna

Heurystyczne funkcje myślenia są rozwijane i implementowane w procesie edukacyjnym, tj. w trakcie opanowywania pewnych dyscypliny akademickie. reprezentujący proces studiowania jako fałszywe zorganizowane zajęcia w rozwiązywaniu problemów edukacyjnych staje się jasne, że od ucznia wymaga się posiadania pewnych specjalnych umiejętności i zdolności do organizowania poszukiwania rozwiązań takich problemów. Najbardziej optymalnym działaniem, w którym rozwija się produktywne sposoby myślenia, zdolność do osiągania celów i uzyskiwania wyniku rozwiązania problemu, jest działanie heurystyczne. Rozważ cechy heurystycznej aktywności edukacyjnej i jej przebieg, a także: zadanie uczenia się jako podmiot działania heurystycznego oraz te cechy procesu jego rozwiązywania, które są związane z wyszukiwaniem heurystycznym.

Heurystyczna czynność edukacyjna to czynność, podczas której celowo rozwijane są umiejętności:

Rozumieć sposoby i metody produktywnej działalności edukacyjnej i poznawczej, twórczo je kopiować i uczyć się na własnych i zapożyczonych doświadczeniach;
usystematyzować, tj. organizować informacje edukacyjne w interdyscyplinarne zespoły i operować nimi w poszukiwaniu heurystycznym podczas wykonywania określonych czynności;
dostosować się do zmieniających się gatunków działania edukacyjne i przewidywać jego wyniki;
planować i przewidywać aktywność intelektualną w oparciu o operacje i strategie heurystyczne i logiczne;
formować i podejmować decyzje dotyczące organizacji złożone typy czynności uczenia się oparte na wiarygodnym rozumowaniu, operacjach heurystycznych i strategiach z ich późniejszą logiczną weryfikacją.

Aktywność heurystyczna bez rozwiniętej i świadomej umiejętności jej realizacji charakteryzuje się wieloma nieoptymalnymi cechami. Znane są więc przypadki, w których niektórzy praktykanci, zwłaszcza na początkowych etapach, próbują znaleźć rozwiązanie problemu po prostu manipulując jego danymi, tj. próbują znaleźć rozwiązanie „przypadkowo”, na podstawie nieukierunkowanych, nieświadomych, niekontrolowanych działań, chociaż od tego powinno zaczynać się działanie zwane heurystycznym. Wymieńmy niektóre czynniki, które przyczyniły się do jego pomyślnego wdrożenia.

Wybór według bazy danych: Streszczenie. Kontrola graniczna do sekcji 3. Marmazova.docx, 4-6 sekcji checkers.docx.
Heurystyki pedagogiczne
ROZDZIAŁi.

Heurystyki w systemie współczesnej wiedzy.

Tworzenie i rozwój heurystyk.
Temat numer 1.

Wprowadzenie do dyscypliny
"Eureko!" - ten okrzyk starożytnego naukowca i wynalazcy Archimedesa jest znany wszystkim od dzieciństwa. To słowo nie jest tylko stwierdzeniem faktu znaleziska. W naszym umyśle wiąże się to z wyrażeniem wyższego poczucia satysfakcji, radości i zachwytu z odnalezionego rozwiązania problemu, którego nikt wcześniej nie był w stanie rozwiązać. Minęły ponad dwa tysiąclecia, słowo pojawiło się w naszym słowniku "Heurystyczny" . W chwili obecnej pojęcie odpowiadające mu jest szeroko stosowane. W naszym umyśle zawsze kojarzy się z twórczą działalnością. Wspólnymi ogniwami łączącymi heurystykę i kreatywność są wyobrażenia o nietrywialności, oryginalności, nowości, wyjątkowości.

Podstawowe idee i wzorce heurystyk, sprawdzone metody klasyczne i heurystyczne systemy wyszukiwania są badane w celu ich późniejszego celowego zastosowania w szkoleniu specjalistów w zakresie różne pola działalność człowieka, w tym zarządzanie.

Metody heurystyczne może znaleźć szerokie zastosowanie w praktyce nowoczesnego lidera dowolnej rangi, w tym w działaniach nowoczesnego menedżera. Prowadzenie spotkań, gier biznesowych z wykorzystaniem metod heurystycznych („burza mózgów”, empatia, inwersja, synektyka itp.) zwykle daje wiele pomysłów, fundamentalnie nowych podejść do rozwiązywania różnego rodzaju problemów zarządczych w działalności komercyjnej. Metody heurystyczne są obecnie szeroko stosowane w biznesie i zarządzaniu, gdyż stymulują rozwój intuicyjnego myślenia, wyobraźni i kreatywności.

Proces twórczy, produktywny w dowolnej dziedzinie działalności to wieloaspektowy, złożony proces zawierający wiele elementów, których nawet krąg jest obecnie trudny do pełnego nakreślenia. Wiąże się z wysokim napięciem wszystkich sił duchowych człowieka, wymaga intensywnej aktywności i wyobraźni, koncentracji uwagi, wolicjonalnego napięcia, mobilizacji całej wiedzy i doświadczenia w celu rozwiązania problemu.

kreacja jest celową teoretyczną i praktyczną działalnością ludzi, która prowadzi do tworzenia nowych, nieznanych dotąd hipotez, teorii, metod, Nowa technologia i technika, dzieła sztuki i literatura.

Aktywność heurystyczna - jeden ze składników kreatywności, a heurystyka - najstarsza dziedzina naukowa. Rozważa podstawowe kwestie organizacji aktywności umysłowej w sytuacjach niestandardowych, to znaczy, gdy dana osoba staje przed zadaniem (problemem), którego rozwiązanie wcześniej nie spotkał. Trudno wykształcić silne umiejętności działania heurystycznego u przyszłego specjalisty bez znajomości jego podstawowych zasad i klasycznych metod. Wykorzystanie systemów i metod heurystycznych w pracach naukowych, technicznych, wynalazczych i wszelkich innych twórczych stało się obecnie powszechnym podejściem do rozwiązywania wielu pojawiających się problemów. Znajomość metod heurystycznych jest podstawą efektywnej, praktycznej działalności specjalisty, także w zakresie zarządzania. Jeśli przyszły menedżer przygotowuje się do takiej działalności zawodowej, w której często musi formułować swoje decyzje w zmieniających się (dynamicznych) i niestandardowych sytuacjach, to potrzebuje znajomości metod heurystycznych. Znajomość metod heurystycznych pozwoli Ci w pełni zrealizować siebie.

Słownik oxford po angielsku interpretuje heurystykę w następujący sposób: Heurystyczny - sztuka znajdowania prawdy w szczególności służy do scharakteryzowania systemu, w którym człowieka uczy się samodzielnego znajdowania wyjaśnienia zjawisk. Nieco uproszczona heurystyka może być oglądana z dwóch stron. Z jednej strony jest to sztuka odnajdywania prawdy, która musi mieć ogólnie przyjęte podstawy naukowe i zasady jej rozwoju. Z drugiej strony, w oparciu o znane wzorce aktywności heurystycznej można zbudować system, który optymalnie wykorzysta potencjał myślenia w działaniu i celowo go rozwinie jakościowo. Dwie rozważane strony wysunęły potrzebę wypracowania heurystyk, które by je harmonijnie łączyły: obszar heurystyki teoretycznej i praktycznej, obszar organizowania działań na jej podstawie.

Powstawanie i rozwój heurystyk następowało równolegle z rozwojem nauki. Naukowcy i filozofowie Starożytna Grecja zastanowił się nad pytaniami: jak szukać tego, czego nie wiemy, a jeśli wiemy, czego szukamy, to po co tego szukać? W toku takiego rozumowania zauważono, że w celu znalezienia rozwiązań pojawiających się problemów naukowych i praktycznych, człowiek posługuje się w dużej mierze tymi samymi działaniami mentalnymi i organizacyjnymi. Dalszy rozwój nauki i pojawienie się cybernetyki zapoczątkowały współczesny etap heurystyki (lata 50.), który charakteryzuje się intensywnym badaniem wszystkich aspektów produktywnego myślenia.

W rezultacie na przecięciu wielu dyscyplin naukowych, które badają ludzkie zachowania intelektualne, syntetyzując ich osiągnięcia, heurystyka we współczesnym znaczeniu powstała jako nauka badająca wzorce organizacji ludzkich zachowań intelektualnych przy rozwiązywaniu pojawiających się nowych problemów.

Podstawowe idee i wzorce heurystyk, sprawdzone metody klasyczne i heurystyczne systemy wyszukiwania są badane w celu ich późniejszego celowego zastosowania w szkoleniu specjalistów z różnych dziedzin ludzkiej działalności, w tym zarządzania. Wszystko to powinno stanowić podstawę rozwoju ich potencjału twórczego. Poza takimi warunkami skłonności twórcze kształtują się na podstawie przejścia liczby rozwiązanych problemów w jakość umiejętności ich rozwiązywania, co oczywiście nie jest optymalnym sposobem ich zdobywania.

Stwierdzono, że heurystyki rzeczywiście zapewniają samodzielny ruch w kierunku wiedzy, a także zdobywanie solidnej, operacyjnej wiedzy i umiejętności, ale jednocześnie wymagają zbyt wiele pracy i czasu, aby uzyskać te wyniki.

Na obecnym etapie powstawania heurystyk następuje intensywny rozwój aparatu pojęciowego i terminologicznego. Syntetyzując osiągnięcia różnych dziedzin nauki, na przecięciu których się rozwija, heurystyka przenosi je jednocześnie na terminologię, choć taki nurt ma oczywiście charakter ogólnonaukowy. Ważne jest, aby zrozumieć, że człowiek rodzi się nie z wiedzą, ale ze zdolnością do jej opanowania i wydobycia. Specyfika działania heurystycznego jest taka, że ​​nie jest ona jednoznacznie zdefiniowana, więc heurystyka wygrywa najwięcej, gdy jest podejść do niej krytycznie.

Heurystyka narodziła się i rozwijała przez długi czas w głębi filozofii. Starożytni naukowcy prowadzili różne badania z dziedziny matematyki, fizyki, mechaniki i innych dziedzin wiedzy, jednocześnie próbując odpowiedzieć na pytania: jak prowadzić badania, aby doprowadziły do ​​odkrycia nowych wzorców? Jak prawidłowo rozwiązywać pojawiające się problemy? Jak zorganizować swoją aktywność umysłową, aby przebiegała celowo? Takie pytania nie uzyskały jednoznacznej odpowiedzi, ale stopniowo ich badanie nabrało głębszego, bardziej obiektywnego i praktycznego charakteru. Te jakościowe procesy myślowe nazwano heurystycznymi.

Oprócz filozofii inne dyscypliny naukowe zaczęły badać te procesy, których zadaniem było badanie zachowań intelektualnych człowieka, jego myślenia i procesów jego przepływu. W ten sposób na przecięciu wielu dyscyplin naukowych powstała współczesna heurystyka, która dokonała syntezy wiedzy z tych dziedzin w swoim specyficznym przedmiocie badań.
Temat numer 2.

Tworzenie i rozwój heurystyk. historia jego ewolucji.
Heurystyka i maieutyka Sokratesa.
W historii wiedzy naukowej nie brakuje przykładów, kiedy koncepcje teoretyczne wraz z rozwojem nauki zapełniają się bardziej precyzyjną treścią, czasem absorbując pierwotny termin, a w niektórych przypadkach nawet znacząco go zmieniając. Stało się tak z pojęciem „heurystyki”.

Słowo " heurystyczny„pochodzi z greckiego Heurisko- znajduję, znajduję, odkrywam, co oznaczało w starożytnej Grecji metodę nauczania stosowaną przez Sokratesa („rozmowa sokratejska”). Struktura takiej rozmowy składała się z systemu pytań prowadzących do: prawidłowe rozwiązanie problem przed nim.

Uważa się, że heurystyka jest maieutyka(przetłumaczone z greki - położnictwo, położnictwo) - jedna z metod ustalania prawdy w rozmowie lub sporze. Jej istotą było to, że Sokrates za pomocą umiejętnie postawionych pytań i otrzymanych odpowiedzi konsekwentnie prowadził rozmówcę do prawdziwej wiedzy. Maieutyka, według Sokratesa, była zawsze realizowana w połączeniu z innymi technikami:


    ironia, gdy rozmówca zostaje przyłapany na sprzecznych wypowiedziach, to znaczy w nieznajomości przedmiotu rozmowy;

    przez indukcję wymagającą przejścia do Pojęcia ogólne ze zwykłych pomysłów i odosobnionych przykładów;

    definicji, co oznacza stopniowe wchodzenie do prawidłowej definicji pojęcia na podstawie definicji pierwotnych.

Spór lub rozmowa metodą maieutyki powinna przebiegać według następującego schematu: od rozmówcy wymaga się zdefiniowania (zdefiniowania) omawianego zagadnienia, a jeśli jego odpowiedź okaże się powierzchowna, czyli nie wpływa na istotę sprawy, następnie rozmówca otrzymuje nowe przykłady w celu wyjaśnienia pierwotnej definicji. Rezultatem jest bardziej precyzyjna definicja, która jest dalej testowana na nowych przykładach i tak dalej, aż „rodzi się” prawdziwa myśl.

Istotą sokratejskiej heurystyki jako formy uczenia się pytań i odpowiedzi jest system pytań nauczyciela-opiekuna. Efekt rozwojowy treningu w dużej mierze zależy od jego umiejętności, znajomości alternatywnych sposobów osiągnięcia celu.

W nowoczesnym sensie ta metoda jest stosowana w nauczaniu i polega na tym, że praktykant poprzez szereg pytań jest prowadzony do rozwiązania rozważanego problemu. Ta metoda ma zastosowanie we wszystkich przypadkach, gdy chce się wzbudzić u szkolonego umiejętność łączenia znanych danych. Ta metoda ma zastosowanie, gdy wymagane jest napięcie myśli i dedukcja. Przy prawidłowym i systematycznym formułowaniu pytań metoda może rozwinąć pomysłowość i pomysłowość. Przeciwnie, przy nieumiejętnym formułowaniu pytań, rozwija w stażyście pragnienie przypadkowych odpowiedzi.
Metoda Archimedesa .
Równolegle z sokratejskim rozumieniem heurystyki, wielu starożytnych naukowców stosowało różne metody, aby znaleźć rozwiązanie problemu. Te metody we współczesnym znaczeniu. były heurystyczne. Tak więc Archimedes (287 - 212 pne) w eseju „Doktryna metod mechaniki” przedstawia teorię znajdowania rozwiązań nowych problemów: za pomocą reprezentacji mechanicznych (we współczesnej terminologii - modele fizyczne), hipotezy znalezione rozwiązania, które są dalej badane i testowane za pomocą matematyki. Sztuka rozwiązywania trudnych problemów, na które nie ma prostych i łatwych do wyboru sposobów, wzięła swoją nazwę od słynnego radosnego okrzyku „Eureka!” („Znaleziono!”) w momencie, gdy naukowiec zdał sobie sprawę, jak określić objętość korony (ciało o nieregularnym kształcie).
Heurystyczny tata.
Ciekawym źródłem związanym z heurystyką jest Kompilacja Matematyczna greckiego matematyka Papieża (ok. 300 ne). W tomie VII omawia dziedzinę nauki, którą w języku greckim można interpretować jako heurystykę.

Punktem wyjścia jego analizy jest konieczność wykazania, że ​​problem został już rozwiązany. Z tego zadania wyciągnięto wnioski, z tych wniosków wyciągnięto inne wnioski i tak dalej. dopóki nie dojdą do takiego wniosku, który może posłużyć za początek syntezy, ponieważ w analizie uznają, że to, co należy zrobić zgodnie z warunkami problemu, zostało już wykonane (to, czego szukamy, już zostało znalezione; to, co należy udowodnić, jest udowodnione). Określ, z którego poprzednika można uzyskać wnioskowanie będące przedmiotem zainteresowania, a następnie ponownie określ, które wnioskowanie można uzyskać z tego poprzednika itd., przechodząc od jednego wnioskowania do poprzednika, który je spowodował, aż dojdziesz do wniosku, który został uzyskany przed lub traktowane jako prawdziwe. Takie podejście nazywa się analogia lub rozwiązywanie problemów do końca, lub rozumowanie regresywne.

Reasumując, zmieniając kolejność tego procesu, zaczyna się od ostatniego wniosku analizy, od tego, co jest już znane lub przyjęte jako prawdziwe. Przyjmując to, co jest znane jako punkt wyjścia, wyciąga się wniosek, który poprzedził go w analizie i kontynuuje wyciąganie wniosków w ten sposób, aż wracając ścieżką przebytą w analizie, dochodzi się do tego, co należy udowodnić. Takie podejście nazywa się synteza lub konstruktywna decyzja lub postępowe rozumowanie.

Istnieją dwa rodzaje analizy. Jednym z rodzajów analizy jest rozwiązanie „problemów z dowodami”. Stawia sobie za cel ustalenie prawdziwych twierdzeń. Innym rodzajem analizy jest analiza rozwiązania „problemów do znalezienia”. Ten rodzaj analizy ma na celu znalezienie nieznanego.

Oczywiście techniki Pope'a nie ograniczają się w żaden sposób do problemów matematycznych. Te metody aktywności intelektualnej są uniwersalne i niezależne od przedmiotu badań. Ciekawą niematematyczną interpretację metod analizy i syntezy opisanych przez Pappusa przedstawił D. Poya.

Rozważmy konkretny przykład. Człowiek prymitywny musi przejść przez dość głęboki strumień. Nie może tego robić normalnie. Tak więc przekroczenie staje się problemem, gdzie „przeprawa przez strumień” jest niewiadomą x ten problem. Ktoś może pamiętać, że kiedyś przekroczył inny strumień na zwalonym drzewie. Zacznie się rozglądać, aby znaleźć takie zwalone drzewo, które staje się nową niewiadomą. w . Załóżmy, że nie znalazł takiego drzewa. Jednak wzdłuż strumienia rosną inne drzewa. Naturalnie chciałby, żeby jeden z nich upadł. Czy może sprawić, że drzewo spadnie w poprzek strumienia? To jest wspaniały pomysł! Ale pojawia się nowa niewiadoma z : jak ściąć drzewo w poprzek strumienia?

Taki tok myślenia, w terminologii Papieża, należy nazwać analizą. I rzeczywiście, to prymitywny może zostać wynalazcą mostu i siekiery, jeśli uda mu się zakończyć analizę. Jaka będzie synteza w tym przypadku? Przekuwanie tych pomysłów w czyn. Ostatnim etapem syntezy będzie przejście drzewa przez potok. Te same elementy stanowią analizę i syntezę. W analizie ćwiczy się ludzki umysł, a mięśnie syntezują. Analiza to myśl, synteza to działanie. Jest jeszcze jedna różnica - przeciwieństwo porządku. Podsumowując, można powiedzieć, że analiza to inwencja, synteza to wykonanie, analiza to napisanie planu, a synteza to jego realizacja.
Heurystyki w pracach Kartezjusza.
Rene Descartes (1596 - 1650) dokonał znaczącego popchnięcia w kierunku myśli naukowej w kierunku badania aktywności heurystycznej. Zrobił badania w wielu obszary naturalne nauki ścisłe. W matematyce jego zainteresowania naukowe dotyczyły opracowywania nowych metod. Tak więc R. Descartes połączył metody algebry i geometrii, w wyniku czego powstał wygląd Geometria analityczna. Zrewolucjonizowało to pod względem technicznym metodologię matematyki, ponieważ zastosowanie równań pozwoliło znacznie prościej dowieść różnych własności krzywych geometrycznych niż metodami czysto geometrycznymi.

Kontynuując badania w dziedzinie metodologii, R. Descartes dążył do opracowania uniwersalnej metody rozwiązywania problemów. Oto schemat, który zasugerował, że można go zastosować do wszelkiego rodzaju problemów:

– każdy problem sprowadza się do problemu matematycznego;

- problem matematyczny wszelkiego rodzaju sprowadza się do problemu algebraicznego;

- każdy problem sprowadza się do rozwiązania pojedynczego równania.

Z biegiem czasu sam Kartezjusz przyznał, że zdarzają się przypadki, w których jego schemat nie działa, chociaż jest odpowiedni dla ogromnej ich liczby. Problemy związane z aktywnością intelektualną człowieka przy rozwiązywaniu problemów określone są w „Zasadach kierowania umysłem”. W nich Kartezjusz zasugerował rozważenie:

- jaki powinien być proces pracy umysłowej w rozwiązywaniu problemów;

– analiza rozwiązania poprawnie i błędnie postawionych problemów.

Kartezjusz widział swój główny cel w znalezieniu sposobu na ustalenie prawdy w dowolnej dziedzinie. Poświęcił temu główne dzieło swojego życia, Dyskursy o metodzie. Projekt Kartezjusza jest uważany za świetny, miał większy wpływ na naukę niż tysiące innych małych projektów, nawet tych, które można było zrealizować.
Heurystyczne idee Leibniza.
Niemiecki filozof Gottfried Leibniz (1646 - 1716), podobnie jak Kartezjusz, prowadził szeroko zakrojoną działalność naukową w dziedzinie matematyki, fizyki, biologii, historii i logiki. Działalność naukową uważał za misję religijną powierzoną naukowcom. Jego filozofia nauki miała na celu zachęcenie człowieka do odkrywania i wymyślania. W jego pismach rozproszone są liczne i oryginalne fragmenty opisujące organizację procesu twórczego. W rzeczywistości są to różne reguły i techniki heurystyczne, które pomagają znaleźć sposoby rozwiązywania nowych problemów. Leibniz przekonywał, że nie ma nic ważniejszego niż umiejętność znalezienia źródła wynalazku, co jest jeszcze ciekawsze niż sam wynalazek.

Za jeden ze swoich celów naukowych uważał stworzenie logiki wynalazczości, opartej na właściwości umysłu nie tylko do oceny tego, co oczywiste, ale także do odkrywania tego, co ukryte. W tym celu wykorzystał kombinatorykę. Logika, zdaniem Leibniza, powinna uczyć inne nauki metody odkrywania i dowodzenia wszystkich konsekwencji, jakie wynikają z danych przesłanek.

Jego główne zasady to:


    każde pojęcie można zredukować do ustalonego zestawu prostych, dalszych nierozkładalnych pojęć;

    pojęcia złożone są wyprowadzane z prostych tylko za pomocą operacji mnożenia logicznego i przecinania tomów pojęć w logice klas;

    zbiór prostych pojęć musi spełniać kryterium spójności;

    każde stwierdzenie może być równoważnie przetłumaczone na inną formę;

    Każde prawdziwe zdanie twierdzące jest analityczne.

Na kształtowanie się poglądów metodologicznych Leibniza wpłynęły przemyślenia Kartezjusza o możliwości skonstruowania uniwersalnej logiczno-matematycznej metody rozwiązywania problemów naukowych. Leibniz i Kartezjusz mieli nadzieję, że zdołają rozwinąć logikę w uniwersalną naukę o myśleniu mającą zastosowanie do wszystkich obszarów ludzkiego umysłu – aby zbudować rodzaj uniwersalnego rachunku myśli.

Według planów Leibniza, nieco bardziej szczegółowych niż plany Kartezjusza, do zbudowania uniwersalnej logiki potrzebne są trzy główne elementy. Pierwszym elementem jest uniwersalny język naukowy, częściowo lub całkowicie symboliczny i mający zastosowanie do wszystkich prawd wydedukowanych przez rozumowanie. Drugim elementem jest wyczerpujący zestaw logicznych form myślenia, które pozwalają na wyciągnięcie wszelkich dedukcyjnych wniosków z początkowych zasad. Trzeci element to zestaw podstawowych pojęć, za pomocą których definiowane są wszystkie inne pojęcia, rodzaj alfabetu myślenia, który pozwala dopasować symbol do każdego prostego pomysłu. Łącząc symbole i wykonując na nich różne operacje, możliwe jest wyrażanie i przekształcanie bardziej złożonych pojęć.

Ani Kartezjuszowi, ani Leibnizowi nie udało się wypracować spójnego symbolicznego rachunku logicznego. Stworzyli tylko fragmenty, które były bardzo dalekie od ich zadania: sprowadzić wszelkie rozumowanie do kalkulacji. Leibniz marzył o stworzeniu sytuacji, w której jeden z dyskutantów mógłby zawsze powiedzieć drugiemu: „Ty mówisz jedno, ja mówię co innego; Cóż, zastanówmy się, który z nas ma rację.
Temat numer 3.
Analiza porównawcza w heurystyceXIXstulecie
Dzieła Saint-Simona i Bolzano
Francuski naukowiec A. Saint-Simon (1760-1825) poświęcił wiele uwagi badaniu porównań jako ważnemu narzędziu poznawczemu. Twierdził, że „cała praca ludzkiego umysłu ostatecznie sprowadza się do porównań: powiedzenie, na przykład, że rzecz jest dobra lub zła, oznacza stwierdzenie, że jest lepsza lub gorsza niż ta druga, z którą jest porównywana”. Wysunął ideę stworzenia specjalnej nauki porównywania idei, wskazując matematykę jako jej wzór, czyli „naukę o najdokładniejszych i najgłębszych porównaniach”. Należy zauważyć, że metoda porównawcza w XIX wieku. Jest szeroko stosowany w naukach, które zgromadziły dużą ilość materiału empirycznego.

Duże zainteresowanie dla określenia istoty heurystyki budzą idee czeskiego logika, matematyka i filozofa Bernarda Bolzano (1781-1848), przedstawione w „Nauce”, jego głównym dziele logiczno-filozoficznym. Zajmuje się problematyką logiki klasycznej, teorii wiedzy, teorii nauki, psychologii myślenia, heurystyki i pedagogiki. Tak fundamentalne podejście do badania aktywności intelektualnej pozwoliło na zastanowienie się nad pytaniami: czym jest poznanie i wiedza? Czym jest prawda? Jakie są środki i sposoby poznania prawdy? Jakie są formy i zasady jakiejkolwiek aktywności poznawczej?

W prezentacji działalności heurystycznej B. Bolzano robi krok naprzód w porównaniu z Kartezjuszem i Leibnizem, krytycznie rozwijając idee swoich poprzedników. Bolzano wykazał zatem, że odwoływanie się do jakichkolwiek dowodów nie może służyć jako dowód w badaniach naukowych. Wszystkie urojenia, według Bolzano, wynikają z tego, że błędnie szacujemy prawdopodobieństwa wniosków heurystycznych i często używamy tych wniosków jako udowodnionych.
Algebra Boole'a.
Irlandzki profesor matematyki George Boole (1815-1864) dokonał wybitnego postępu w krytycznej rewizji logiki. Zaproponował i rozwinął uogólnienie rozumowania algebraicznego w postaci algebry operatorów. Jego stanowisko było takie, że algebra niekoniecznie powinna zajmować się rozpatrywaniem samych liczb i że prawa algebry powinny pokrywać się z prawami arytmetyki dla liczb rzeczywistych i zespolonych. Główną ideą Boole'a jest to, że istniejące prawa myślowe można przedstawić w formie symbolicznej, co umożliwia nadanie bardziej precyzyjnego znaczenia zwykłemu logicznemu rozumowaniu i uproszczenie ich stosowania.
Heurystyka w pracach Poincarégo.
Francuski matematyk Henri Poincaré (1854-1912) poświęcił wiele uwagi kwestiom metodologii nauki i samej heurystyki. Uważał, że prawa nauki nie mają zastosowania do prawdziwy świat, ale są arbitralnymi konwencjami, które powinny służyć jak najwygodniejszemu i najprzydatniejszemu (zgodnie z Macha „zasadą ekonomii myślenia”) opisowi odpowiadających im zjawisk.

Rozważając mechanizm twórczości matematycznej, Poincare podkreślał, że nie różni się ona znacząco od jakiejkolwiek twórczej aktywności, dlatego badając ją mamy prawo liczyć na przeniknięcie do samej istoty ludzkiego umysłu. W tym celu przede wszystkim naukowiec uważał, że trzeba wiedzieć mechanizm psychologiczny twórczość dlatego obserwacje dotyczące pracy matematyka są jego zdaniem szczególnie pouczające dla psychologa.

Poincaré wierzył, że rozwiązanie lub dowód może wywołać w nas poczucie elegancji, gdy istnieje harmonia poszczególnych części, ich symetria, ich szczęśliwa równowaga - wszystko, co wprowadza porządek, co tym częściom mówi całość jednocześnie ze szczegółami .

metoda naukowa W Poincare chodzi o obserwację i eksperyment, ale ponieważ czas jest ograniczony, naukowiec musi dokonać pewnych wyborów, aby ustalić wzorce. Zasady wyboru dla wielu badaczy nie są pozbawione analogii. Wstępnie ustala się regułę, która obejmuje systematycznie powtarzane fakty. Co więcej, takie fakty nie są interesujące, ponieważ nie uczą już niczego nowego. Wyjątki są teraz interesujące, a przede wszystkim te najostrzejsze, ponieważ są nie tylko najbardziej rzucające się w oczy, ale i najbardziej pouczające. Tak więc, jeśli jakakolwiek reguła zostanie ustanowiona, musimy najpierw zbadać te przypadki, w których reguła najprawdopodobniej jest błędna.

Po przeprowadzeniu badań nad podobieństwem faktów do reguły i ich różnicami, należy skoncentrować się na tych analogiach, które często znajdują się w pozornych różnicach. Nowy wynik jest godny pochwały, jeśli łączy znane elementy, które do tej pory były rozproszone i wydawały się sobie obce. Nagle wprowadza porządek tam, gdzie do tej pory panował chaos. Postęp naukowy jest napędzany przez nieoczekiwane zbieżności między różnymi dziedzinami nauki.

Poincare przywiązywał wielką wagę do nagłego wglądu. Uderzyła go natura wglądu, co niewątpliwie świadczy o długiej wstępnej nieświadomej pracy. Ta praca jest owocna tylko wtedy, gdy poprzedza ją i następuje okres świadomej pracy. W każdym razie rola tej nieświadomej pracy w procesie matematycznej twórczości jest wielka i niezaprzeczalna. Przypadkowe fakty Poincaré uważał za losowe dla ignorantów, ale nie dla naukowca. Losowość w jego interpretacji jest miarą naszej ignorancji, zatem zjawiskami losowymi będą te, których prawa są nam nieznane.

W swoich obszernych pracach metodologicznych Poincaré przywiązywał dużą wagę zarówno do kreatywności matematycznej, jak i do nauczania matematyki. Rozwijane przez niego zagadnienia twórczości naukowej związane są z problematyką heurystyki, zarysowaną na podstawie własnych doświadczeń.
Heurystyka Engelmeyera.
W pierwszej połowie XX wieku zaczęły pojawiać się prace nad problematyką aktywności heurystycznej w określonych obszarach. Tak więc w 1910 roku. PC. Engelmeyer opublikował teorię kreatywności, studium na temat twórczości naukowej i technicznej, w której się rozwijał i nie tylko ogólne problemy stworzenie całej nauki o twórczości - neurologii, podkreślającej jedność heurystycznych i logicznych zasad tej nauki.

Techniczna kreatywność P.K. Engelmeyer uważał to za zjawisko charakterystyczne dla każdego rozwijającego się organizmu. Podzielił pojedynczy organiczny proces twórczości na trzy jakościowo różne akty.

Pierwszy akt jest zamierzony. Tylko ten akt jest związany z psychologią. Jej wynikiem jest pojawienie się idei, czyli hipotezy przyszłego wynalazku. Akt zaczyna się od intuicyjnego wyczucia idei, a kończy na jej doprecyzowaniu. Konkretny sposób rozwiązania przychodzi do wynalazcy w trakcie myślenia nagle, jak natychmiastowy błysk w zrozumieniu celu.

Drugi akt to plan. Akt ten opiera się na logice, ponieważ jego wynikiem jest logiczny schemat przyszłej konstrukcji.

Trzecim aktem jest działanie. Ten akt jest związany z rzeczywistością, ponieważ na tym etapie wynalazca ustępuje miejsca rzemieślnikowi.

Jednocześnie - pierwsza dekada XX wieku. - istnieją prace nauczycieli-matematyków, którzy pomyślne nauczanie matematyki kojarzyli z heurystyką. W ten sposób francuski nauczyciel Lezan przedstawił nauczycielowi swój system w formie porady. Te wskazówki opierają się na utrzymywaniu otwartego umysłu osoby szkolonej i wspieraniu naśladowania samopoznania. Podobną koncepcję poparła firma S.I. Shorokh-Trocki. duże skupienie heurystyczne metody nauczania zostały podane przez N.A. Izvolsky, który widział główne zadanie nauczania w rozwoju zdolności twórczych opartych na tych metodach.

Na podstawie analizy procesów powstawania i rozwoju heurystyk można wyciągnąć następujące wnioski:


    Na wszystkich etapach rozwoju intelektualnej działalności człowieka w nauce i technice dostrzegano problemy, których nie można było rozwiązać za pomocą istniejących wówczas metod i logiki. Takie zadania wymagały myślenia poza przyjętymi teoriami, odkrycia, wynalezienia nowych podejść do ich rozwiązania.

    Okazało się, że do rozwiązania takich problemów można zastosować dość ogólne, nie związane tylko z wąskim Tematyka, poradniki, zasady, zalecenia. Nie gwarantują osiągnięcia celu, ale znacznie zwiększają prawdopodobieństwo sukcesu dzięki sekwencji zorientowanej na cel w porównaniu z niezorganizowanym wyszukiwaniem.

    Próby sformalizowania takich systemów na podstawie identyfikacji logiki i myślenia nie osiągnęły celu. Była to mało obiecująca ścieżka rozwoju heurystyki, na której jednak narodziły się nowe kierunki naukowe.

    Podczas rozwoju heurystyki powstały i zostały zbadane prawie wszystkie istniejące metody tradycyjnej działalności heurystycznej.

    W rzeczywistości powstał pogląd na heurystykę jako naukę, która opiera się na obszarach, które badają zachowanie intelektualne osoby.

Temat numer 4.
Obecny etap rozwoju heurystyk
Znaczenie pracy Poyi.
Współczesny etap rozwoju heurystyki rozpoczyna się w drugiej połowie XX wieku. Wiąże się to z pojawieniem się cybernetyki i koniecznością rozwijania systemów heurystycznych wyszukiwania dla działalności naukowej i wynalazczej. Do tego czasu wygląd badania podstawowe D. Poya o heurystyce, podsumowując jej rozwój na poprzednim etapie i nakreślając jej perspektywy. Pisał: „Decartes zastanawiał się nad uniwersalną metodą, odpowiednią do rozwiązywania wszelkich problemów; Leibniz najdobitniej sformułował ideę metody doskonałej. Jednak poszukiwanie uniwersalnej, doskonałej metody nie dało większego efektu niż poszukiwanie kamienia filozoficznego, który zamienia nieszlachetne metale w złoto. Jednak takie nieosiągalne ideały nie pozostają bezużyteczne - choć nikt nie dotarł do Gwiazdy Północnej, ale wielu, patrząc na nią, znalazło właściwą drogę. Praca Polyi była pierwszą, w której rozważano potrzebę wczesnego celowego treningu umiejętności czynności heurystycznych. Główną ideę swoich prac wyraził w następujących słowach: „Proces rozwiązywania problemu to poszukiwanie wyjścia z trudności lub ominięcia przeszkody - jest to proces osiągania celu, który początkowo nie nie wydają się natychmiast dostępne. Rozwiązywanie problemów jest specyficzną cechą inteligencji, a inteligencja jest szczególnym darem człowieka; Dlatego rozwiązywanie problemów można uznać za jeden z najbardziej charakterystycznych przejawów działalności człowieka.

Stopniowo wysiłki naukowców przesunęły się z poszukiwania uniwersalnej metody na konsekwentne badanie wzorców heurystycznej działalności człowieka. „Heurystyka ma na celu ustalenie ogólnych wzorców tych procesów, które zachodzą przy rozwiązywaniu wszelkiego rodzaju problemów, niezależnie od ich treści”.
Współczesne definicje heurystyki.
Badanie heurystycznej aktywności intelektualnej osoby i praktyczne zastosowanie zidentyfikowanych wzorców jej przebiegu w różnych działaniach naukowych spowodowało kontekstowe definiowanie heurystyk. Rozumienie heurystyki w różnych dziedzinach wiedzy naukowej uległo przekształceniu pod wpływem specyfiki jej zastosowania w tych dziedzinach. Nastąpiła ilościowa akumulacja informacji.

Pod heurystyka zacząłem rozumieć:


    Specjalne metody rozwiązywania problemów (metody heurystyczne), które zwykle są przeciwieństwem formalnych metod rozwiązywania opartych na dokładnych modelach matematycznych. Zastosowanie metod heurystycznych (heurystyk) skraca czas rozwiązania problemu w porównaniu z metodą całkowitego nieskierowanego wyliczenia możliwych alternatyw; otrzymane rozwiązania nie są z reguły najlepsze, a odnoszą się jedynie do zbioru rozwiązań dopuszczalnych; zastosowanie metod heurystycznych nie zawsze zapewnia osiągnięcie celu. Niekiedy w literaturze psychologicznej i cybernetycznej przez metody heurystyczne rozumie się wszelkie metody mające na celu ograniczenie wyliczeń lub jako metody indukcyjne rozwiązywania problemów.

    Organizacja procesu produktywnego myślenia twórczego (działanie heurystyczne). W tym sensie heurystyka jest rozumiana jako zespół mechanizmów tkwiących w człowieku, za pomocą których generowane są procedury mające na celu rozwiązanie problemów twórczych (np. mechanizmy nawiązywania relacji sytuacyjnych w sytuacji problemowej, odcinanie mało obiecujących gałęzi w drzewo opcji, formułowanie kontrprzykładów itp. ). Mechanizmy te, które wspólnie określają metateorię rozwiązywania problemów twórczych, mają charakter uniwersalny i nie zależą od konkretnego rozwiązywanego problemu. Sposób pisania programów komputerowych (programowanie heurystyczne). Jeśli w programowaniu konwencjonalnym programista przekodowuje gotową metodę rozwiązania matematycznego do postaci zrozumiałej dla komputera, to w przypadku programowania heurystycznego stara się sformalizować intuicyjnie zrozumiałą metodę rozwiązania problemu, którą jego zdaniem człowiek używa przy rozwiązywaniu takich problemów. Podobnie jak metody heurystyczne, programy heurystyczne nie zapewniają bezwzględnego osiągnięcia celu i optymalności wyniku.

    Nauka badająca aktywność heurystyczną; specjalna gałąź nauki o myśleniu. Jej głównym przedmiotem jest działalność twórcza; najważniejsze problemy-zadania związane z modelami decyzyjnymi (w warunkach niestandardowych sytuacji problemowych), poszukiwanie nowego dla podmiotu lub społeczeństwa strukturalizacji opisów świata zewnętrznego (w oparciu o klasyfikacje typu układ okresowy elementy D.I. Mendelejew lub taksonomia roślin K. Linneusz). Heurystyka jako nauka rozwija się na przecięciu psychologii, teorii sztucznej inteligencji, lingwistyki strukturalnej i teorii informacji.

    Specjalna metoda nauczania („Rozmowy sokratejskie”) lub metoda zbiorowego rozwiązywania problemów. Uczenie się heurystyczne, wywodzące się historycznie z czasów Sokratesa, polega na zadawaniu uczniom szeregu wiodących pytań i przykładów. Zbiorowa metoda rozwiązywania trudnych problemów, zwana „burzą mózgów”, polega na tym, że członkowie zespołu zadają autorowi pomysły na rozwiązania, pytania wiodące, przykłady, kontrprzykłady.

Takie definicje potwierdzają opinię wielu badaczy, że heurystyki przetrwają swój okres formacyjny. Nacisk w badaniach zaczął się przesuwać z uzyskiwania wyniku na organizowanie aktywności intelektualnej w celu jego uzyskania. Rośnie zainteresowanie naukowe metodami organizowania odbioru wyników, co umożliwiło zastosowanie odnalezionej metody do innych pojawiających się problemów w różnych obszarach ludzkiej aktywności zawodowej, w tym w dziedzinie zarządzania.
Temat numer 5.
Przedmiot i zadania heurystyki.
Rozważane definicje heurystyk pokazują, że aktywność heurystyczna jest złożonym, wieloaspektowym i wieloaspektowym typem ludzkiej aktywności intelektualnej, która w większym stopniu występuje ukryta i nie może być obiektywnie zbadana i opisana w ramach jednej nauki.

Dlatego heurystyka syntetyzuje wyniki różnych nauk i na tej podstawie ustala wzorce organizacji działań heurystycznych. Takie nauki to przede wszystkim psychologia myślenia, fizjologia wyższych aktywność nerwowa, filozofia, cybernetyka, logika, pedagogika i kilka innych. Ogólnie rzecz biorąc, każda dziedzina naukowa zajmująca się badaniem ludzkiej inteligencji z konieczności dotyczy pewnych aspektów organizacji procesów twórczych, które obejmują aktywność heurystyczną. Wszystko to uzasadnia potrzebę zbudowania szczególnej nauki – heurystyk, która bazując na dorobku naukowym innych dyscyplin i wykorzystując swoje metody uogólniania i badań, badałaby specyficzną cechę ludzkiej inteligencji – działalność heurystyczną. Heurystyki powinny również badać prawidłowości takich działań w cybernetyce technicznej.

Wszystko to pozwala nam podać następującą definicję heurystyki: przez heurystykę jako naukę zrozumiemy naukę, która bada wzorce konstruowania nowych działań w nowej sytuacji.

Nowa sytuacja to problem, który nie został przez nikogo rozwiązany lub urządzenie techniczne, które nie zostało wynalezione, którego potrzeba została zidentyfikowana. Sytuacja będzie również nowa, gdy specjalista napotka niestandardowy problem na swoim poziomie, którego dowód musi samodzielnie znaleźć. Wchodząc w nową sytuację, człowiek szuka sposobów wyjścia z niej, czyli rozwiązań, których nie zna i których jeszcze nie spotkał w swojej praktyce. Może to być zupełnie nowa metoda lub nowa sekwencja dobrze znanych działań. Zatem heurystyka skupia się na badaniu wzorców konstruowania nowych działań, które są pod wieloma względami podobne, niezależnie od obszaru przedmiotowego zastosowania. Jeśli sytuacja nie jest nowa, działania osoby mają charakter algorytmiczny, to znaczy po prostu zapamiętuje ich kolejność, co z pewnością doprowadzi do celu. W tych działaniach nie ma elementów produktywnego myślenia, w przeciwieństwie do nowej sytuacji, gdy wynik musi być obiektywny lub subiektywny – gdy wynik jest nowy dla osoby, która go otrzymała.

Heurystyka jako nauka wywodzi się z psychologii myślenia. Za główny przedmiot badań uważa organizację produktywnej aktywności intelektualnej, opartej na aktach umysłowych, za pomocą której odbywa się proces poszukiwania heurystycznego.

Jak wiadomo, myślący zobowiązany i rozwija się w postaci:


    analiza, synteza, porównanie;

    abstrakcja, uogólnienie, konkretyzacja;

    indukcja, dedukcja, analogia;

    znajdowanie połączeń i relacji;

    tworzenie pojęć, ich klasyfikacja i systematyzacja.

Jednak jako główny przedmiot badań heurystyki rozważa główne operacje oparte na tych aktach umysłowych, od których zaczyna się jako dane. główny temat jej badania to nauka o sposobach wyszukiwania i formowania informacji przy ich pomocy w znajdowaniu rozwiązań. Rozwiązujący problem formułuje hipotezy na podstawie modelu informacyjnego zadania problemowego, zaczynając od najbardziej ogólnego i zorientowanego. Na pierwszych etapach decyzji brakuje mu informacji, aby wyciągnąć kategoryczny i pewny wniosek. Jego późniejsze nagromadzenie pozwala coraz bardziej racjonalnie przewidywać ścieżkę rozwiązania. Drugą cechą przedmiotu badań heurystycznych jest to, że różne typy i formy myślenia nie występują oddzielnie, ale w połączeniu, dlatego najważniejsze w rozwiązaniu problemu jest połączenie różnych operacji heurystycznych i logicznych, ich systematyczne stosowanie. Jednocześnie złożone operacje wyszukiwania działają nie w wyniku zwykłej mechanicznej kombinacji operacji elementarnych, ale w wyniku złożonej aktywności intelektualnej, w której heurystyczne, algorytmiczne, algorytmiczne (logiczne) elementy myślenia są ze sobą powiązane, a często subiektywnie. .

Główne zadania heurystyki ponieważ nauki są:


    wiedza wzorce procesów produkcyjnych na podstawie psychologicznych cech ich przebiegu;

    identyfikacja i opis rzeczywistych sytuacji, w którym manifestuje się heurystyczna działalność ludzka lub jej elementy;

    badanie zasad organizacji warunków (modeli), dla aktywności heurystycznej;

    modelowanie sytuacji, w których dana osoba się manifestuje aktywność heurystyczna, mająca na celu zbadanie jej przebiegu i poznanie organizacji;

    tworzenie ukierunkowanych systemów heurystycznych(ogólne i szczegółowe) na podstawie znanych obiektywnych wzorców aktywności heurystycznej;

    projektowanie urządzeń technicznych, realizacja praw aktywności heurystycznej.

Temat numer 6.

Heurystyki w systemie innych nauk.
Heurystyka i psychologia myślenia
Powstanie i rozwój heurystyki jako nauki, która powstała na przecięciu kilku dyscyplin naukowych, powoduje konieczność rozważenia jej fundamentalnych związków z nimi.

Jeden z głównych obszarów tradycji badania naukowe heurystyczna działalność człowieka to psychologia myślenia , w której heurystyka wyróżniała się w jednej z jego sekcji. Prowadzi prace nad badaniem natury ludzkich operacji umysłowych w rozwiązywaniu różnych problemów, niezależnie od ich specyficznej treści i tematyki. Główne zadanie analiza psychologiczna myślenie staje się w tym przypadku wyjaśnieniem stosowanych przez człowieka heurystyk, ich usystematyzowaniem oraz opracowaniem zaleceń dotyczących aktywnego zarządzania procesem ich przyswajania i stosowania. Badania prowadzone są na specjalnie dobranym materiale, dogodnym do analizy i z reguły mają charakter krótkotrwały. Heurystyki w tych badaniach rozumiane są jako domysły, specjalne metody i techniki oparte na uogólnionym doświadczeniu w rozwiązywaniu problemów intelektualnych. Połączenie tych technik i metod rozwija umiejętność znajdowania podejść do problemów, metod rozwiązywania nieznanych człowiekowi.

Myślący - złożone poznawcze Proces umysłowy interakcja poznającej osoby z obiektem poznawczym. Jest to wiodąca forma orientacji człowieka w rzeczywistości. Niemal zawsze myślenie jest w rzeczywistości procesem twórczym z elementami poszukiwania heurystycznego pewnego poziomu, ponieważ występuje w sytuacjach, w których do podjęcia decyzji potrzebne są nowe informacje i sposoby ich przetwarzania. W procesie myślenia człowiek może stawiać sobie zadania i formułować odpowiedzi, stawiać hipotezy, budować dowody, tworzyć teorie naukowe i wynalazki. W każdej złożonej aktywności umysłowej występuje aktywność heurystyczna jako element twórczego myślenia. Myślenie jest w stanie łączyć, porównywać i kontrastować informacje o zjawiskach i obiektach, które nie są ze sobą bezpośrednio powiązane. Ujawniając naturalne istotne powiązania, myślenie jest w stanie przewidzieć sposoby dalszy rozwójświat materialny - prognozowanie, a tym samym przewyższają go. Umiejętności te opierają się na najważniejszych cechach myślenia - uogólnienia I mediacja odbicia otaczającej rzeczywistości.

Jedna z teorii twierdzących, że opisuje myślenie, opiera się na klasycznej teoria asocjacji . W nim myślenie jest rozumiane jako związek między bodźcami a reakcjami lub elementami zachowania i jest interpretowane jako prawa rządzące sekwencją elementów zachowania („idee”). „Pomysł” w klasycznej teorii skojarzeń to kopia, ślad bodźców. Teoria ta opiera się na następującym prawie sukcesji: jeśli dwa obiekty A i B często znajdują się razem, to przedstawienie A będzie przypominać obiekt B, to znaczy połączenie opiera się na zasadzie powierzchownej zewnętrzności. związek przyczynowy(np. powiązanie numeru telefonu z nazwiskiem właściciela).

Lista operacji w teorii asocjacji jest następująca:


    skojarzenia nabyte na podstawie powtarzania komunikacji;

    rola częstotliwości powtórzeń, nowości;

    przywoływanie przeszłych doświadczeń;

    próba i błąd ze sporadycznymi sukcesami;

    nauka oparta na powtórzeniu udanego procesu;

    działania zgodne z uwarunkowanymi reakcjami i nawykami.

Jednak proces myślowy różni się od swobodnego skojarzenia przede wszystkim tym, że myślenie jest ukierunkowanym skojarzeniem. Czynnikiem, który kieruje skojarzeniem i zamienia je w myślenie, jest cel. Istotną właściwością powiązań asocjacyjnych jest to, że stanowią one podstawę takiego uporządkowanego przechowywania informacji w ludzkim mózgu, które umożliwia szybkie wyszukiwanie potrzebnych informacji poprzez odwoływanie się do potrzebnego materiału przez skojarzenia.
Heurystyka i logika.
Istnieje podejście do opisywania myślenia oparte na: identyfikacja funkcji myślenia i logiki . Obecnie logika (gr. – słowo, myśl, mowa, umysł) jako nauka jest syntezą dorobku naukowego dotyczącego praw i form myślenia. Logika tradycyjna i matematyczna bada prawa pozyskiwania wiedzy z wcześniej ustalonych prawd, bez odwoływania się w każdym przypadku do doświadczenia. Dzieje się to na podstawie praw wiedzy inferencyjnej.

Tradycyjną logikę można nazwać arytmetyką logiki. Studiuje następujące ogólne prawa:


    prawo tożsamości; każda myśl podana w danej konkluzji, gdy zostanie powtórzona, musi mieć tę samą określoną, stałą treść;

    prawo sprzeczności: dwie przeciwstawne myśli na ten sam temat, podjęte w tym samym czasie iw tej samej relacji, nie mogą być jednocześnie prawdziwe;

    prawo wykluczonego środka: z dwóch sprzecznych stwierdzeń jednocześnie i pod tym samym względem jedno jest koniecznie prawdziwe;

    prawo wystarczającego powodu: każda prawdziwa myśl musi być uzasadniona innymi myślami, których prawdziwość została udowodniona.

Logika tradycyjna zastanawia się, jak poprawnie zbudować rozumowanie w formie, aby pod warunkiem prawidłowego zastosowania formalnych praw logicznych dojść do prawdziwy wniosek z prawdziwych wiadomości. Logika matematyczna jest algebrą logiki formalnej. Bada działanie zasadniczo tych samych praw, ale metody matematyczne, co pozwala na zastosowanie jego wyników m.in. w cybernetyce. Opierając się na prawach i regułach logiki, pewne kombinacje sądów umożliwiają uzyskanie „nowych” poprawnych sądów, ale ich nowość polega jedynie na oczywistym poszerzeniu dotychczasowej wiedzy. Logika, badając strukturę odrębnej myśli i różne kombinacje myśli w złożone formy, abstrahuje nie tylko od konkretnej treści, ale także od procesów powstawania, formowania się, twórczy rozwój myśli, co wyklucza możliwość opisu myślenia w kategoriach tradycyjnej logiki.

Logika ma duże walory edukacyjne:

- ciągłe dążenie do prawdziwej wiedzy;

- szczególną uwagę na różnicę między prostym stwierdzeniem, przekonaniem, dokładnym osądem;

- znajdowanie i badanie różnicy między niewystarczająco jasnymi pojęciami, niejasnymi uogólnieniami a precyzyjnymi sformułowaniami;

- opracowanie kryteriów formalnych do wykrywania błędów, niejasności, niedozwolonych uogólnień, pochopnych wniosków;

– zrozumienie znaczenia dowodów; wymóg przekonywania i rygoryzmu na każdym etapie myślenia.

Te cnoty tradycyjnej logiki obalają twierdzenie, że nie ma ona związku z rzeczywistym zachowaniem. Prawdziwe zachowanie nie osiągnie rozsądnego celu, jeśli jest zdeterminowane czynnikami analogicznymi do błędów w tradycyjnej logice.
Heurystyka i cybernetyka. Heurystyka i inteligencja.
Wraz z rozwojem teorii informacji i cybernetyki wielu badaczy zaczęło opisywać myślenie jako proces przetwarzania informacji przez człowieka. Cybernetyka (gr. - sztuka zarządzania) - nauka o zarządzaniu, odbieraniu, przekazywaniu i przetwarzaniu informacji w systemach dowolnej natury (systemy cybernetyczne): technicznym, biologicznym, ekonomicznym itp. Podejście to nie definiuje myślenia, wskazuje na jedną z jego głównych właściwości, jaką jest jego poznawcza strona aktywnego wydobywania informacji ze środowiska zewnętrznego i ich przetwarzania. Jeśli chodzi o takie podejście, akademik A.K. Kołmogorow mówił: „Należę do tych cybernetyków, którzy nie widzą fundamentalnych ograniczeń w cybernetycznym podejściu do problemu życia i wierzę, że można analizować całe życie, w tym ludzką świadomość z całą jego złożonością, wykorzystując metody cybernetyki.”

Rozważając myślenie, pojęcie „ inteligencja „(łac. - wiedza, zrozumienie, rozum). Inteligencja to system zdolności umysłowych jako poziom rozwoju myślenia. Czasami tak mówią myślenie to inteligencja w działaniu. Intelekt obejmuje system wszystkich funkcji poznawczych człowieka: od wrażeń i percepcji po myślenie i wyobraźnię.

Główne cechy charakteryzujące inteligencję i badane w różnych dyscyplinach to:

- umiejętność rozumienia i uczenia się na doświadczeniu; zdobywać i utrzymywać wiedzę; zdolności umysłowe;

- umiejętność szybkiego pomiaru i prawidłowego reagowania na nową sytuację; umiejętność rozumowania przy wyborze strategii działania;

- miara sukcesu w wykorzystaniu wymienionych umiejętności w wykonywaniu określonej czynności.

Formowanie i rozwój inteligencji odbywa się na podstawie pracy jako celowe działanie w otaczającym świecie. Tutaj manifestuje się również najistotniejsza cecha ludzkiego intelektu, która pozwala na odzwierciedlenie praw otaczającego świata i na tej podstawie przekształcenie go. Wiąże się to również z uogólnieniem rozumienia inteligencji jako aktywności poznawczej dowolnych złożonych systemów zdolnych do uczenia się, celowego przetwarzania informacji i samoregulacji. Jednocześnie aktywność heurystyczną należy traktować jako aktywność intelektualną (myślącą) w nowej, niestandardowej sytuacji. Wszystko to tłumaczy podejście do badań, które wdraża cybernetyka.

Przedmiot i zadania mikrobiologii. Główne kierunki rozwoju współczesnej mikrobiologii: ogólna, medyczna, sanitarna, weterynaryjna, przemysłowa, glebowa, wodna, kosmiczna, geologiczna, genetyka mikroorganizmów, ekologia mikroorganizmów.

Mikrobiologia- nauka o żywych organizmach niewidocznych gołym okiem (mikroorganizmy): bakterie, archebakterie, mikroskopijne grzyby i glony, często ta lista jest poszerzana o pierwotniaki i wirusy. Obszar zainteresowań mikrobiologii obejmuje ich systematykę, morfologię, fizjologię, biochemię, ewolucję, rolę w ekosystemach, a także możliwość praktycznego wykorzystania.

Przedmiot mikrobiologiczny - Mikroorganizmy ten organizmy niewidoczne gołym okiem ze względu na ich mały rozmiar. To kryterium jest jedynym, które ich łączy. W przeciwnym razie świat mikroorganizmów jest jeszcze bardziej zróżnicowany niż świat makroorganizmów.

studia mikrobiologiczne morfologia, systematyka i fizjologia drobnoustrojów, bada stan ogólny, dowiaduje się roli, jaką odgrywają w przemianach różne substancje otaczającą nas przyrodę.

Zadania Współczesna mikrobiologia jest różnorodna, specyficzna, że ​​wyłoniło się z niej wiele wyspecjalizowanych dyscyplin – medycznych, weterynaryjnych, rolniczych i przemysłowych.

W okresie istnienia mikrobiologii powstały gałęzie ogólnotechniczne, rolnicze, weterynaryjne, medyczne i sanitarne.

· Ogólny bada najbardziej ogólne wzorce właściwe dla każdej grupy wymienionych mikroorganizmów: strukturę, metabolizm, genetykę, ekologię itp.

· Techniczne (przemysłowe) zajmuje się rozwojem biotechnologii do syntezy substancji biologicznie czynnych przez mikroorganizmy: białek, kwasów nukleinowych, antybiotyków, alkoholi, enzymów, a także rzadkich związków nieorganicznych.

· Rolniczy bada rolę mikroorganizmów w obiegu substancji, wykorzystuje je do syntezy nawozów, zwalczania szkodników.

· Weterynaryjny bada patogeny chorób zwierząt, metody diagnostyczne, swoistą profilaktykę i leczenie etiotropowe mające na celu zniszczenie czynnika zakaźnego w ciele chorego zwierzęcia.

· Medyczny mikrobiologia zajmuje się badaniem drobnoustrojów patogennych (patogennych) i warunkowo patogennych dla człowieka, a także opracowuje metody diagnostyki mikrobiologicznej, swoistej profilaktyki i leczenia etiotropowego wywołanych przez nie chorób zakaźnych.

· Sanitarny mikrobiologia zajmuje się badaniem stanu sanitarno-mikrobiologicznego obiektów środowiska, produktów spożywczych i napojów oraz opracowuje standardy sanitarno-mikrobiologiczne i metody oznaczania drobnoustrojów chorobotwórczych w różnych obiektach i produktach.

Genetyka mikroorganizmów, sekcja generała genetyka , w którym przedmiotem badań są bakterie, mikroskopijne grzyby, aktynofagi, wirusy zwierząt i roślin, bakteriofagi i inne mikroorganizmy.

Ekologia mikroorganizmów nauka o związkach drobnoustrojów między sobą i z środowisko. W mikrobiologii medycznej przedmiotem badań jest kompleks relacji między mikroorganizmami a człowiekiem.

Historia powstania i rozwoju mikrobiologii. Odkrycie mikroorganizmów przez A. Leeuwenhoeka. Morfologiczny okres rozwoju mikrobiologii. Fizjologiczny okres rozwoju mikrobiologii. Działalność naukowa L. Pasteura (badanie natury fermentacji, chorób zakaźnych). Badania R. Kocha z zakresu mikrobiologii medycznej. Współczesny okres rozwoju mikrobiologii. Znaczenie badań genetyki molekularnej i biologii molekularnej w rozwoju mikrobiologii i wirusologii. Wykorzystanie mikroorganizmów w biotechnologii, biohydrometalurgii. Biopestycydy bakteryjne, bionawozy, mikrobiologiczne wykorzystanie MSW i innych odpadów.

Historię rozwoju mikrobiologii można podzielić na pięć etapów: heurystyczny, morfologiczny, fizjologiczny, immunologiczny i genetyczny molekularny.

Okres heurystyczny (IV.III tysiąclecie pne .XVI wne) kojarzy się raczej z logicznymi i metodologicznymi metodami dochodzenia do prawdy, tj. heurystyki niż z jakimikolwiek eksperymentami i dowodami. Myśliciele tamtych czasów (Hipokrates, pisarz rzymski Varro itp.) przyjęli założenia dotyczące natury chorób zakaźnych, miazmatów, małych niewidzialnych zwierząt. Idee te zostały sformułowane w spójną hipotezę wiele wieków później w pismach włoskiego lekarza D. Fracastoro (1478.1553), który wyraził ideę żywego zakaźnego (contagium vivum), wywołującego chorobę. Co więcej, każda choroba spowodowana jest jej zarażeniem. W celu ochrony przed chorobami zalecono izolację chorego, kwarantannę, noszenie masek i zalewanie przedmiotów octem.

Tak więc D. Fracastoro był jednym z twórców epidemiologii, czyli nauki o przyczynach, warunkach i mechanizmach powstawania chorób oraz metodach ich zapobiegania.

Wraz z wynalezieniem mikroskopu przez A. Leeuwenhoeka rozpoczyna się kolejny etap rozwoju mikrobiologii, zwany morfologiczny .

Z zawodu Leeuwenhoek był kupcem sukiennym, pełnił funkcję skarbnika miejskiego, a od 1679 r. był także winiarzem.

Sam Leeuwenhoek polerował proste soczewki, które były tak doskonałe optycznie, że pozwalały dostrzec najmniejsze stworzenia - mikroorganizmy (powiększenie liniowe 160 razy).

Wykazał się niezwykłą zdolnością obserwacji i trafnością opisów uderzającą w jego czasach. Jako pierwszy opisał pleśń, która rosła na mięsie, później opisuje „żywe zwierzęta” w wodzie deszczowej i studniowej, różnych naparach, w kale i na płytce nazębnej. A. Levenguk przeprowadził wszystkie badania sam, nikomu nie ufając. Wyraźnie rozumiał różnicę między obserwacjami a ich interpretacją.

W 1698 r. A. Leeuwenhoek zaprosił do siebie przebywającego wówczas w Holandii cara Rosji Piotra Wielkiego. Król był zachwycony tym, co zobaczył przez mikroskop. A. Levenguk dał Piotrowi dwa mikroskopy. Służyły jako początek badań nad mikroorganizmami w Rosji.
W 1675 r. A. van Leeuwenhoek wprowadził do nauki terminy mikrob, bakteria i pierwotniak. Odkrycie świata mikroorganizmów przez A. Leeuwenhoeka dało potężny impuls do badania tych tajemniczych stworzeń. Przez całe stulecie odkrywano i opisywano coraz więcej nowych mikroorganizmów. „Ile cudów kryją w sobie te maleńkie stworzenia” – pisał A. van Leeuwenhoek.

Fizjologiczny okres w rozwoju mikrobiologii. Ten etap jest związany z nazwą L. Pasteura, który stał się twórcą mikrobiologii medycznej oraz immunologii i biotechnologii.

Na początku działalności L. Pasteura mikrobiologia nie istniała jeszcze jako samodzielna nauka. W pierwszym okresie działalności L. Pasteura „konieczne było zbadanie obiektów, zanim przystąpiono do badania procesów. Musisz najpierw wiedzieć, czym jest dany obiekt, aby móc poradzić sobie ze zmianami, które w nim zachodzą.

Ludwik Pasteur faktycznie pracował w całkowitej „naukowej samotności” przez prawie dwadzieścia lat, mając tylko czterech przygotowawczych. W tym czasie prowadził badania nad problematyką fermentacji, samoistnego wytwarzania i chorób jedwabników. W tym czasie rozpoczęła się wielka epopeja Pasteura, heroiczna era walki między ubóstwem a wielkością.

L. Pasteur po raz pierwszy pokazał, że drobnoustroje różnią się od siebie nie tylko wygląd, ale także ściśle określone cechy jego wymiany. Jako pierwszy zwrócił uwagę na ogromną rolę drobnoustrojów jako czynników sprawczych przemian chemicznych na powierzchni ziemi, chorób zakaźnych, przyczyn fermentacji. Pokazał, że atenuowane kultury drobnoustrojów chorobotwórczych mogą służyć jako lekarstwo (szczepionka). Odkrył beztlenowy (beztlenowy) sposób życia w mikroorganizmach. Po przestudiowaniu „chorób” piwa i wina Pasteur zaproponował metodę leczenia ich wysokimi temperaturami. Metoda ta została później nazwana „pasteryzacją” i jest obecnie bardzo szeroko stosowana w przemyśle spożywczym na całym świecie. Pierwszy autoklaw do sterylizacji pożywek, na których hoduje się drobnoustroje, po raz pierwszy wynalazł również Pasteur. Praca laboratoriów mikrobiologicznych jest nie do pomyślenia bez autoklawu.

Okres fizjologiczny w rozwoju mikrobiologii kojarzy się również z nazwiskiem niemieckiego naukowca Robert Koch.

Niemiecki lekarz R. Koch (1843 - 1910) uważany jest za twórcę współczesnej mikrobiologii (ryc. 3). Uważany jest za króla medycyny i ojca bakteriologii. Jako pierwszy wyizolował drobnoustroje na sztucznych, gęstych pożywkach i uzyskał czyste kultury. Opracował metody barwienia drobnoustrojów, jako pierwszy zastosował mikrofotografię, opracował precyzyjne metody dezynfekcji, zaproponował specjalne naczynia szklane. Żadne laboratorium na świecie nie działa bez szalki Petriego. Znana jest również triada Kocha sformułowana przez R. Kocha, która jest nadal stosowana w ustalaniu czynnika sprawczego choroby (trzy warunki rozpoznania drobnoustroju jako czynnika sprawczego pewnej choroby: a) drobnoustrój chorobotwórczy musi być wykryty we wszystkich przypadki tej choroby, ale nie powinny występować u osób zdrowych lub w innych chorobach; 6) czynnik drobnoustrojowy musi być wyizolowany z organizmu pacjenta w czystej kulturze; c) wprowadzenie czystej kultury drobnoustroju do podatnego organizmu powinno wywołać daną chorobę. )

Wszystkie powyższe etapy są bardzo ważne dla rozwoju mikrobiologii. Nie mniej ważne są prace R. Kocha z zakresu badań chorób zakaźnych: wąglika, gruźlicy i innych (2.16). W 1876 odkrył, że patogen wąglik to bakteria Bacillus anthracis. W 1882 Koch odkrył czynnik wywołujący gruźlicę, Musobasterium tuberculosis. W 1905 r. został odznaczony R. Koch nagroda Nobla w medycynie.


blisko