Kognitywistyka

Ilustracja podstawowych dyscyplin kognitywistyki. Swobodna adaptacja Millera, George A (2003). „Rewolucja poznawcza: perspektywa historyczna”. TRENDY w naukach kognitywnych 7 .

Kognitywistyka to interdyscyplinarna nauka do badania świadomych i potencjalnie świadomych procesów ( angielska nauka o umyśle ).

Przedmiotem kognitywistyki jest świadome i nieświadome doświadczenie, które często lokuje się pomiędzy zdolnościami sensorycznymi i motorycznymi, a także przetwarzanie informacji w kontekście ludzkiego myślenia i podejmowania decyzji. Obejmują one B. Percepcja, myślenie, osąd, pamięć, uczenie się i język. Twój obszar tematyczny nie ogranicza się do poznania , ale obejmuje również emocje , motywację i wole .

Kognitywistyka częściowo abstrahuje od tego, czy poznanie jest badane w systemach organicznych lub istotach żywych, czy w systemach sztucznych, takich jak komputery lub roboty, uznając procesy poznawcze za przetwarzanie informacji. Pracuje metodycznie na różnych płaszczyznach:

  • tworzenie teorii, które służy do formułowania hipotez,
  • modelowanie poznawcze , funkcje poznawcze za pomocą modeli komputerowych do symulacji i zintegrować nowe hipotezy w tych modelach,
  • oraz poziom empiryczny, który zajmuje się empiryczną weryfikacją modeli i konkretną implementacją wydajności poznawczej.

Kognitywistyka jest wynikiem interdyscyplinarnych wysiłków psychologii , neuronauki , informatyki / sztucznej inteligencji , lingwistyki i filozofii , ale także antropologii i socjologii .

Rozwój kognitywistyki

Historia kognitywistyki

Niektórym rozwój kognitywistyki kojarzy się z ideą tzw. „ zwrotu poznawczego ” (ok. 1940–1970). Do tej pory miał w psychologii i filozofii psychicznego od behawioryzmu odgrywa ważną rolę. Behawioryzm pojawił się jako odpowiedź na problemy introspekcji jako metody badań psychologicznych. Introspektywne raporty na temat wewnętrznych procesów psychicznych nie były dla naukowców możliwe do zweryfiko- wania zewnętrznie. Behawioryzm wyciągnął konsekwencje z tego, że psychologia musiała ograniczyć się do badania zachowania . Na przykład w filozofii umysłu Gilbert Ryle poszedł o krok dalej i twierdził, że stany psychiczne są niczym innym jak dyspozycjami behawioralnymi.

W 1956 Sympozjum Teorii Informacji zajęło miejsce w Massachusetts Institute of Technology , w którym AI pionierami Allen Newell , Herbert Simon i Marvin Minsky , jak również lingwista Noam Chomsky uczestniczył. Chomsky przedstawił ostrą krytykę behawioryzmu i wprowadził jego wpływową gramatykę transformacyjną . Newell i Simon przedstawili teoretyka logiki , który po raz pierwszy był w stanie samodzielnie „udowodnić” twierdzenie matematyczne. Ważnymi prekursorami tego rozwoju było sformułowanie cybernetyki przez Norberta Wienera oraz prace Alana Turinga , który zaprojektował maszynę Turinga i opracował test Turinga .

Nauka kognitywna, która została ukonstytuowana w kontekście opisanych wydarzeń, opierała się na centralnym założeniu, które nazwano „ komputerowym modelem umysłu ”. Oznacza to tezę, że mózg jest systemem przetwarzania informacji iw zasadzie działa jak komputer . Rozróżnienie między umysłem a mózgiem można rozumieć analogicznie do rozróżnienia między oprogramowaniem a sprzętem . Tak jak oprogramowanie jest zdeterminowane przez struktury danych i algorytmy , tak umysł jest zdeterminowany przez reprezentacje umysłowe i procesy obliczeniowe. Tak jak abstrakcyjny opis oprogramowania jest możliwy bez bezpośredniego badania sprzętu, tak abstrakcyjny opis zdolności umysłowych powinien być możliwy bez bezpośredniego badania mózgu. I tak jak istnienie poziomu oprogramowania można łatwo pogodzić z materializmem , tak poziom mentalny powinien być osadzony w interpretacji materialistycznej.

Aktualne wydarzenia

Komputerowy model umysłu był poddawany ostrej krytyce w ciągu ostatnich kilku dekad. Ta krytyka ma zasadniczo dwa źródła: Z jednej strony szybko rozwinął się opis mózgu przez neuronaukę poznawczą . Widać to na przykład w rosnącym znaczeniu procedur obrazowania , które sprawiają, że nie można nie zwracać uwagi na mózg podczas eksploracji umysłu. Z drugiej strony opracowano inne skuteczne podejścia, takie jak: B. Koneksjonizm i modelowanie sieci neuronowych . Sztuczne sieci neuronowe są zaprogramowane m.in. do symulacji aktywności grup neuronów . Wątpliwe jest, w jakim stopniu możliwe jest rozróżnienie między poziomami oprogramowania i sprzętu.

Inne alternatywne paradygmaty w kognitywistyce to m.in. B. dynamizm (nauczanie, przecież wszelkie przejawy czy rzeczywistość można wytłumaczyć działaniem sił), Sztuczne Życie (Sztuczne Życie) oraz zmaterializowaną i odłączoną kognitywistykę. Zgodnie z dynamizmem teoria systemów dynamicznych dostarcza odpowiedniego modelu zachowań poznawczych, ponieważ zachowanie poznawcze zawsze odbywa się w kontekście czasowym i wymaga koordynacji czasowej. Postuluje się, że ten czasowy aspekt poznania, który jest pomijany w komputerowym modelu umysłu, jest niezbędny. Z drugiej strony podejście to kwestionuje centralność wewnętrznej reprezentacji i manipulacji symbolami (patrz symbolizm), ponieważ te koncepcje nie są częścią dynamicznego wyjaśnienia.

„Sztuczne życie” to termin, który kontrastuje ze sztuczną inteligencją: zamiast rozwiązywać abstrakcyjne zadania (takie jak analizowanie pozycji szachowych), co często wydaje się nam ludziom, ludziom, trudne ze względu na samą liczbę możliwych rozwiązań, ale komputery są łatwe do rozwiązania , jeden powinien najpierw zrozumieć, jak radzić sobie z rzekomo bluźnierczymi problemami dnia codziennego. Wiele zadań, które wydają się nam proste (takich jak bieganie, rozpoznawanie przyjaciół i wrogów, łapanie piłki…) jest obecnie wcale lub tylko w bardzo ograniczonym zakresie, z którym radzą sobie komputery czy roboty .

Z kolei kognitywistyka ucieleśniona i usytuowana zakłada, że ​​poznania nie da się wyjaśnić bez odniesienia do określonego ciała ( ucieleśnienia ) i określonego środowiska (sytuacja). Wymagania te wynikają z wątpliwości, że poznanie jest procesem zachodzącym w świecie abstrakcyjnych reprezentacji symbolicznych, względnie niezależnym od dokładnych zdarzeń zmysłowych, motorycznych i czasowych w świecie zewnętrznym. Znanymi przedstawicielami tego poglądu są Alva Noë , Susan Hurley, Evan Thompson , Francisco Varela i Kevin O'Regan. W kontekście ucieleśnionej i usytuowanej kognitywistyki często poszukuje się powiązania między ideami fenomenologii Maurice'a Merleau-Ponty'ego i Edmunda Husserla a klasyczną analityczną filozofią umysłu .

Te różne prezentowane nurty (konekcjonizm, dynamika, sztuczne życie, usytuowanie i ucieleśnienie) są często podsumowywane hasłem Nowa sztuczna inteligencja . T. pokrywają się w swoich żądaniach i założeniach. Nie można ich jednak uznać za przystające, gdyż różnią się pod wieloma względami przesłankami , konsekwencjami i zastosowaniami, a nawet są ze sobą sprzeczne.

Krytyka komputerowego modelu umysłu prowadziła niekiedy do ogólnego zakwestionowania kognitywistyki. W międzyczasie jednak fale w dużej mierze się wygładziły. Obecnie naukowcy zajmujący się kognitywizmem również sami korzystają z sieci neuronowych i są w bliskim kontakcie z neuronauką poznawczą .

Filozofia poznania

W kognitywistyce badane są tematy, które wymagają świadomości lub pewności siebie u ludzi . W tym celu rozważa się poszczególne aspekty świadomości, takie jak percepcja, myśli lub wspomnienia i ogólnie określa się je jako stany mentalne. „Wyższe” zdolności poznawcze, takie jak uczenie się, rozwiązywanie problemów i mówienie , wymagają z kolei myślenia – czyli stanów psychicznych. Dlatego też dla kognitywistyki ogromne znaczenie metodologiczne ma wyjaśnienie, co rozumie się przez omówienie stanów psychicznych. Powiązany z modelem komputerowym umysłu to klasyczna pozycja w filozofii umysłu - funkcjonalizmu .

Funkcjonalizm, rozwinięty przez Hilary Putnam w latach 60. , twierdzi, że stany mentalne są stanami funkcjonalnymi. Stan funkcjonalny jest określony przez swoją przyczynową rolę w systemie . Pojęcie stanu funkcjonalnego można dość dobrze wyjaśnić na przykładzie prostych maszyn : Wyobraźmy sobie maszynę do cukierków. To wyrzuca cukierka za jedno euro. Teraz możesz opisać maszynę różnymi stanami: Musi być taki stan, w którym maszyna wyrzuca cukierek bez proszenia o dalsze pieniądze. Ale muszą być też stany, w których maszyna wciąż żąda 1 euro lub 50 centów, żeby coś wyrzucić. Każdy z tych stanów maszyny jest stanem funkcjonalnym. Specyfikuje to fakt, że reaguje on w określony sposób na pewien wkład (tu: 50 centów lub 1 euro): ma określone wyjście (tu: cukierek lub nie) i przechodzi w inny stan.

1-pasmowa maszyna Turinga

Decydującym czynnikiem w tym rozważaniu jest to, że opis stanu funkcjonalnego jest niezależny od tego, co i jak faktycznie zbudowano automat z cukierkami. Gdyby stany umysłowe były również stanami funkcjonalnymi, nie miałoby również znaczenia, czy stan funkcjonalny jest realizowany w mózgu, czy w komputerze. Wyjaśniałoby to również warunki, które muszą być spełnione, aby komputer mógł mieć stany mentalne: komputer musiałby realizować tylko te same stany funkcjonalne. To również wydaje się możliwe. Maszyna Turinga , sformułowana jako model matematyczny przez Alana Turinga w 1936 roku , może w zasadzie realizować dowolny stan funkcjonalny.

Umiejętności poznawcze i architektury kognitywne

Ludzie mają różnorodne zdolności poznawcze: pamięć , język , percepcję , rozwiązywanie problemów , wolę umysłową , uwagę i wiele innych. Celem psychologii poznawczej jest zbadanie cech tych zdolności i, w miarę możliwości, opisanie ich w modelach formalnych . Modele te można następnie zaimplementować jako architekturę kognitywną na komputerze. Sztucznej inteligencji (AI) ma zrealizować cel umiejętności poznawczych w maszynach. W przeciwieństwie do architektur kognitywnych, sztuczni agenci mogą również stosować strategie, które nie są wykorzystywane przez ludzi.

Rozwiązać problem

„Rozwiązywanie problemów” to termin używany w odniesieniu do działań, które mają na celu osiągnięcie stanu docelowego. Procesy rozwiązywania problemów są więc czymś codziennym, są niezbędne do planowania dnia, arytmetyki, gry w szachy czy planowania podróży. Celem sztucznej inteligencji było zapewnienie maszynom możliwości rozwiązywania problemów.

W sztucznej inteligencji określany jest stan startowy i docelowy. Zadanie polega na znalezieniu (lub) drogi do celu. Tutaj są w zasadzie dwa podejścia: Z jednej strony program może próbować oślepić ich na swój cel, aby znaleźć go na różne sposoby (tzw. metoda Brute force ), jak na przykład w przeszukiwaniu w głąb lub Przeprowadzane jest wyszukiwanie wszerz . Jednak to podejście szybko osiąga swoje granice, ponieważ liczba możliwych ścieżek w problemach NP-zupełnych jest tak duża, że ​​wypróbowanie go przekroczyłoby moc obliczeniową maszyny. W takim przypadku konieczne są algorytmy wyszukiwania wykorzystujące heurystyki , takie jak algorytm A * . Heurystyki opisują mechanizmy selekcji, które próbują określić najbardziej obiecujące procesy przed ich przeprowadzeniem.

Pierwszym programem, który intensywnie pracował z heurystyką, był General Problem Solver (GPS) autorstwa Allena Newella i Herberta A. Simona . GPS był w stanie znaleźć rozwiązania, takie jak gra Towers of Hanoi . Gra składa się z kilku krążków o różnych rozmiarach oraz trzech pól do gry. Na początku gry wszystkie dyski znajdują się po lewej stronie. Cel zostaje osiągnięty, gdy wszystkie dyski znajdują się na właściwym polu. Jednak każdy krążek może leżeć tylko na większym krążku i tylko jeden krążek może być przesunięty w lewo, środek lub w prawo. Chociaż problem można rozwiązać za pomocą algorytmu , ludzie często rozwiązują ten problem za pomocą heurystyk, ponieważ liczba możliwych ścieżek gwałtownie rośnie.

Wieże Hanoi

Rozwiązywanie gier takich jak Wieże Hanoi było popularnym zadaniem we wczesnych dniach sztucznej inteligencji. Powodem tego jest to, że tutaj możliwa jest tylko bardzo ograniczona liczba działań i nie ma nieprzewidywalnych zdarzeń. Eksperymentalny Sprawdzalność strategii poznawczych ułatwione. Dziś również poświęca się skomplikowanym codziennym zadaniom, takim jak udane „wykonanie” wizyty w restauracji.

Architektury kognitywne

Celem architektury poznawczej jest podsumowanie różnych wyników psychologii poznawczej w kompleksowym modelu komputerowym. Jednak wyniki muszą być dostępne w tak sformalizowanej formie, aby mogły stanowić podstawę programu komputerowego. Podsumowując poszczególne wyniki, powinna powstać z jednej strony kompleksowa teoria poznania, az drugiej komercyjnie użyteczny model. Trzy obecnie najbardziej udane architektury kognitywne to ACT-R ( Adaptive Control of Thought , ACT), SOAR i EPIC . W przypadku modelu PSI w ostatnich latach zaprezentowano kolejne podejście, które w porównaniu z innymi architekturami opiera się w dużej mierze na obecnym stanie psychologii ogólnej .

ACT-R to system produkcyjny składający się z kilku modułów . Składa się z modułów wejścia i wyjścia, pamięci produkcyjnej i pamięci deklaratywnej. Moduł docelowy określa, jaki cel ma być realizowany w systemie produkcyjnym. W pamięci produkcyjnej istnieją reguły, które określają, jaka akcja jest wykonywana, gdy wybrany cel ma zostać osiągnięty, oraz jaka zawartość musi znajdować się w pamięci roboczej (lub w różnych partycjach pamięci roboczej), aby można było wykonać akcja z powodzeniem. To „dopasowanie wzorców” prowadzi do wyboru reguły produkcji i określa działanie modułu wyjściowego.

Architektury poznawcze charakteryzują się spełnieniem pewnych kryteriów, Core Cognitive Criteria (CCC). To są:

System komputerowy, który spełnia te cechy, to DeepQA firmy IBM .

Język i poznanie

Opanowanie języka to jedna z wybitnych zdolności poznawczych człowieka. Posiadanie umiejętności językowych jest również warunkiem wstępnym posiadania niektórych innych umiejętności poznawczych. Bez języka przynajmniej wiele myśli nie mogłoby być pomyślanych i wiele problemów nie mogłoby zostać rozwiązanych. Dlatego język zawsze odgrywał centralną rolę w kognitywistyce. Z jednej strony pojawia się pytanie, jak możliwe jest opanowanie języka przez człowieka, az drugiej strony, jak sprawić, by maszyny opanowały język.

Zdolność językowa ludzi

Jak to się dzieje, że ludzie zazwyczaj są w stanie uczyć się języków? Do XX wieku dominowała opinia, że akwizycję języka można wytłumaczyć odfiltrowaniem zasad języka w dialogu z innymi ludźmi. Takie stanowisko, zwane „ kognitywizmem ”, reprezentował Jean Piaget . Według niej zdolność mówienia wywodzi się z ogólnej zdolności myślenia. Teorii tej po raz pierwszy przeciwstawił się Noam Chomsky swoim „ natywistycznym ” stanowiskiem. Chomsky twierdzi, że ludzie są genetycznie wyposażeni w narząd językowy, który umożliwia przede wszystkim przyswajanie języka. Narząd językowy znajduje się w mózgu , ale nie jako ściśle ograniczony obszar nerwowy.

Noam Chomsky na Światowym Forum Społecznym 2003

Chomsky twierdzi, że akwizycji języka nie da się wytłumaczyć podejściem kognitywistycznym. Językowy wkład innych ludzi jest niewystarczający do określenia zasad poprawnego mówienia. Z jednej strony język mówiony jest bardzo często niegramatyczny, więc wprowadzanie jest ubogie. Z drugiej strony dane wejściowe pozwalają na błędy gramatyczne w uczeniu się dzieci, których w rzeczywistości nie popełniają. Chomsky wnioskuje z tego, że musi istnieć wrodzona wiedza językowa, którą można wykorzystać w przyswajaniu języka. Ta wrodzona wiedza jest szczególnie wiedzą gramatyczną, wszyscy ludzie od urodzenia otrzymują uniwersalną gramatykę .

Hipotezy Chomsky'ego zostały ostro skrytykowane w debacie naukowej znanej jako Linguistics Wars z lat 60. i 70. XX wieku: jego zorientowana na składnię semantyka interpretacyjna George'a Lakoffa i uniwersalna gramatyka z tak zwanej językowej teorii względności Benjamina Whorfa .

Od lat 80. badania coraz częściej zwracają się ku pojęciom, które – podobnie jak Piaget – koncentrują się na socjalizacji w przyswajaniu języka. Podejście Chomsky'ego – podobnie jak cała tradycyjna „filozofia głowy” – jest kwestionowane w koncepcjach konstruktywistycznych i modelach neurobiologicznych :

Według Humberto Maturany i Francisco Vareli – patrz także: Drzewo wiedzy (El árbol del conocimiento 1984) – mózg nie jest skonstruowany jak model wejścia/wyjścia, ale ma – poprzez sieć stu miliardów między- neuronów , Połącz ze sobą miliony komórek nerwowych ruchowych i czuciowych — zdolność do intensywnego przetwarzania równoległego . Reprezentatywne pomysł z obrazem terminu w mózgu jest prawie możliwa do utrzymania na Maturana i Varela od setek neuronów innych częściach układu nerwowego zbieg w punktach przełączających o zróżnicowanych efektów i prowadzą do ich nakładania się. Układ nerwowy nie współpracuje z reprezentacjami niezależnego świata zewnętrznego. Słowa jako oznaczenia przedmiotów lub sytuacji na świecie nie oddają sprawiedliwości faktowi strukturalnego sprzężenia, są raczej ontologicznie zdeterminowaną koordynacją zachowań . Według Maturany i Vareli język nie powstaje w jednolitym projekcie (nie jest częścią mózgu), ale jest zmiennym zachowaniem komunikacyjnym wyuczonym poprzez koordynację działań (język jest częścią środowiska znanego jako „sfera języka „: nasze wspólne „ Bycie-w-języku [-] jest tym, czego doświadczamy jako świadomość lub jako „nasz duch” i „nasze ja”.)

Systemy dialogowe i eksperckie

Próba wyposażenia maszyn w możliwości językowe często znajduje odzwierciedlenie w systemach dialogowych . System dialogowy to zwykle program komputerowy, którego można używać do czatowania za pomocą klawiatury. Jednym z pierwszych udanych systemów dialogowych była ELIZA autorstwa Josepha Weizenbauma z 1966 roku. ELIZA symuluje psychoterapeutę. Poprzez umiejętne użycie zwrotów takich jak „Powiedz mi więcej o X” czy „Często myśl o X”, ELIZA przez długi czas była w stanie oszukiwać osoby testujące o ich nieludzkiej egzystencji. Niektórzy badani czuli nawet, że zostali tak dobrze zrozumiani, że chcieli porozmawiać prywatnie z ELIZA o swoich problemach poza sytuacją testową. Jeśli jednak zadasz ELIZA pytania, które nie pasują do kontekstu sytuacji terapeutycznej, ELIZA nie jest w stanie udzielić żadnych rozsądnych odpowiedzi.

Joseph Weizenbaum (1923-2008), wynalazca ELIZA

Z systemami dialogowymi związane są systemy eksperckie , które w międzyczasie mają również liczne zastosowania komercyjne. Systemy eksperckie starają się przechowywać wiedzę ekspertów i udostępniać ją użytkownikowi. Aplikacje są na przykład ekspertami w dziedzinie automatycznej medycyny lub technologii. Eksperci ci wymagają działającej reprezentacji wiedzy, dzięki której program posiada wiedzę. W kompleksowej reprezentacji wiedzy materiał musi być ustrukturyzowany w korzystny sposób, aby zawsze można było uzyskać dostęp do niezbędnej wiedzy, aby relacje między elementami wiedzy były jasne, a treść mogła zostać przeoczona przez programistę i w razie potrzeby rozszerzona.

Test Turinga

Fascynacja systemami dialogowymi jest ściśle związana z eksperymentem myślowym sformułowanym przez pioniera komputerowego Alana Turinga w 1950 roku. Turing szukał jasnego kryterium decydowania, kiedy komputery można uznać za inteligentne. Jego odpowiedzią był słynny test Turinga: osoba wchodzi w dialog z komputerem - za pomocą ekranu i klawiatury. Komputer można uznać za inteligentny właśnie wtedy, gdy człowiekowi trudno jest zdecydować, czy jest to kwestia dialogu z człowiekiem, czy z programem komputerowym.

Dzisiejsze systemy dialogowe są wciąż dalekie od zdania testu Turinga. Nie jest to zaskakujące, jeśli weźmiesz pod uwagę, co program musiałby zrobić, aby go zaliczyć. Powinien umieć wyjaśniać dowcipy, rozumieć aluzje i ironię oraz formułować pytania i odpowiedzi dostosowane do kontekstu. Twórca pierwszego programu, który zdał test Turinga, otrzymał teraz nagrodę Loebner w wysokości 100 000 USD .

Wiele krytykowano test Turinga. Najbardziej znany jest prawdopodobnie chiński argument Zimmera Johna Searle'a , który ma wykazać, że zdanie testu Turinga nie wystarcza do zrozumienia języka. Wyobraź sobie, że jesteś w ogromnej bibliotece. Z zewnątrz dostajesz kartki z chińskimi znakami, których nie możesz zrozumieć. Ponieważ w książkach w bibliotece zapisywane są tylko sekwencje znaków chińskich, możesz teraz szukać sekwencji znaków na arkuszach. Każdej sekwencji znaków jest przypisana inna sekwencja znaków w księdze, która jest ostatecznie zapisywana na arkuszu, a następnie ponownie rozdawana. Ta procedura sprawia, że ​​obcemu Chińczykowi wydaje się, że rozmawia z inną osobą, która rozumie chiński. Ty sam nie rozumiesz chińskiego, a biblioteka też nie rozumie chińskiego. Tak więc system mógłby przejść test Turinga, nawet nie rozumiejąc, co zostało powiedziane.

Koneksjonizm

Uproszczona reprezentacja sztucznej sieci neuronowej

W kognitywistyce rozwój koneksjonizmu doprowadził do poważnych zmian. Podczas gdy w klasycznej sztucznej inteligencji – zgodnie z komputerowym modelem umysłu – zdolności poznawcze symulowano za pomocą symbolicznego języka programowania , w koneksjonizmie wykorzystuje się sztuczne sieci neuronowe . Sztuczna sieć neuronowa to połączenie prostych jednostek, tzw. sztucznych neuronów . Neurony mogą przekazywać swoją aktywność do sąsiednich neuronów. W rezultacie przy danym wejściu mogą powstać skomplikowane wzorce pobudzenia, które z kolei generują wyjście.

Koncepcja sieci neuronowych została opracowana w 1943 roku przez Warrena McCullocha i Waltera Pittsa . W 1949 psycholog Donald O. Hebb opracował regułę uczenia Hebba , którą można zintegrować z koncepcją sieci neuronowych. Według Hebba uczenie się można opisać poprzez ważenie poszczególnych połączeń między neuronami. Nauka odbywa się poprzez zmianę wag między neuronami. Pomimo tego wczesnego rozwoju w kierunku modelu uczenia sieci neuronowych, kognitywistyka przez długi czas ograniczała się do podejścia przetwarzania symboli (GOFAI).

Dopiero od lat 80. kognitywistyka coraz częściej ucieka się do sieci neuronowych. Wynika to w szczególności z faktu, że sieci neuronowe są w stanie wykonywać zadania, w których podejście przetwarzania symboli pozostaje dość nieskuteczne. Takie zadania obejmują na przykład rozpoznawanie wzorców lub ruch . Ten rozwój ma również znaczenie teoretyczne: koneksjonizm nie uznaje już różnicy między oprogramowaniem a sprzętem, co jest tak ważne dla klasycznej kognitywistyki.

Kognitywistyka na uniwersytetach

W USA, ale także w Wielkiej Brytanii, Australii i Holandii kognitywistyka jest szeroko rozpowszechnionym i uznanym tematem. Wpływowych instytutów znajdują się na Rutgers University , Tufts University , The University of California, San Diego i University of California, Berkeley .

Jednak w Niemczech kognitywistyka nie jest jeszcze bardzo rozpowszechniona jako stopień naukowy. Uniwersytet Osnabrück posiada własną kognitywistyki instytut z Bachelor „s, mistrz ” s oraz studia doktoranckie , na Uniwersytecie w Tybindze nastąpił licencjackie i tytuł magistra w dziedzinie nauk poznawczych od semestru zimowego 2009/10 , oferowane przez Wydział Matematyczno-Przyrodniczy. Politechnika w Darmstadt od semestru zimowego 2019/20 oferuje kurs „Kognitywistyka”. Kognitywistykę można studiować jako nieletni na Uniwersytecie Alberta Ludwiga we Fryburgu i Uniwersytecie w Poczdamie . Od semestru zimowego 2012/2013 uzyskał tytuł mgr inż. Oferowany kurs. Od semestru zimowego 2013/2014 na TU Kaiserslautern prowadzony jest anglojęzyczny kurs Cognitive Science (mgr). Powiązane tematy to: licencjat z informatyki kognitywnej na Uniwersytecie Bielefeld , licencjat „Filozofia – Neuronauka – Poznawanie ” na Uniwersytecie Otto von Guericke w Magdeburgu oraz MEi: CogSci, wspólny tytuł „ Środkowoeuropejski interdyscyplinarny program magisterski w dziedzinie kognitywistyki ”, który wspólnie oferują uniwersytety w Wiedniu, Bratysławie, Budapeszcie i Lublanie. Uniwersytet Duisburg-Essen oferuje stopień licencjata i magistra w „Applied Poznawczo i Media Studies”. Na Politechnice w Chemnitz od semestru zimowego 2009/10, który koncentruje się na technicznej technologii czujników, ludzkiej percepcji oraz naturalnych i sztucznych systemach poznawczych, istnieje licencjat i magister z technologii czujników i psychologii poznawczej.

Zobacz też

Portal: Mind and Brain  - Przegląd treści Wikipedii na temat umysłu i mózgu

literatura

Przedstaw:

  • John R. Anderson : Psychologia poznawcza. Wprowadzenie . Spectrum of Science, Heidelberg 1988, ISBN 3-922508-19-7 . Uzasadnione wprowadzenie, ale z niewielkim odniesieniem do neuronauki.
  • Howard Gardner : Na tropie myślenia. Droga nauk kognitywnych . Klett-Cotta, Stuttgart 1989 u. Ö., ISBN 3-608-93099-X , ISBN 3-608-95866-5 . Klasyczne przedstawienie historii kognitywistyki.
  • Manuela Lenzen : Naturalna i sztuczna inteligencja. Wprowadzenie do nauk kognitywnych . Kampus, Frankfurt nad Menem i inne 2002, ISBN 3-593-37033-6 . Krótkie, przyjazne dla laików wprowadzenie.
  • Rolf Pfeiffer, Christian Scheier: Zrozumienie inteligencji . MIT Press, Cambridge (Mass.) 1999, ISBN 0-262-16181-8 . Prezentacja nowoczesnych podejść w badaniach kognitywnych.
  • Paul Thagard : Kognitywistyka. Podręcznik . Klett-Cotta, Stuttgart 1999, ISBN 3-608-91919-8 . Również wprowadzenie do laika, skupiające się na aspektach filozoficznych i metodologicznych.
  • Max Urchs: maszyna - ciało - umysł. Wprowadzenie do nauk kognitywnych . Vittorio Klostermann, Frankfurt nad Menem 2002, ISBN 3-465-03196-2 . Wyczerpujące, ale zrozumiałe wprowadzenie od matematyka i filozofa.
  • Francisco J. Varela : Kognitywistyka, technika poznawcza. Szkic aktualnych perspektyw . Suhrkamp, ​​Frankfurt am Main 1990, ISBN 3-518-28482-7 . W przyjazny dla laika sposób opisuje zorientowaną biologicznie, ale nie klasyczną kognitywistykę opartą na metaforze komputerowej.

Kolekcje tekstów:

Leksykony:

  • Robert A. Wilson , Frank C. Keil (red.): Encyklopedia nauk kognitywnych MIT . MIT Press, Cambridge (Mass.) I in. 2001, ISBN 0-262-73144-4 . Standardowa praca w języku angielskim.
  • Gerhard Strube i in. (Red.) Słownik nauk kognitywnych . Klett-Cotta, Stuttgart 1996, ISBN 3-608-91705-5 . Jako CD-Rom: Klett-Cotta, Stuttgart 2001, ISBN 3-608-94167-3 .

Poszczególne tematy:

  • Ansgar Beckermann : Analityczne wprowadzenie do filozofii umysłu . Wydanie II. De Gruyter, Berlin i in. 2001, ISBN 3-11-017065-5 . Bardzo gęste wprowadzenie do filozofii umysłu.
  • Rainer Dietrich: Psycholingwistyka . Metzler, Stuttgart 2002, ISBN 3-476-10342-0 . Przyjazne dla laików wprowadzenie do kognitywistycznych aspektów językoznawstwa, ale bez neurolingwistyki.
  • E. Bruce Goldstein: Psychologia poznawcza. Łączenie umysłu, badań i codziennego doświadczenia . Thomson Wadsworth, Belmont (Kalifornia) et al. 2004 i inne , ISBN 0-534-57726-1 . Jeden z najnowszych i najczęściej używanych podręczników psychologii poznawczej.
  • Klaus Mainzer : AI - sztuczna inteligencja. Podstawy systemów inteligentnych . Primus, Darmstadt 2003, ISBN 3-89678-454-4 . Wprowadzenie do AI napisane przez filozofię nauki. Dlatego zrozumiałe również dla specjalistów spoza branży IT.
  • Horst M. Müller: Psycholingwistyka - Neurolingwistyka. Przetwarzanie języka w mózgu . UTB, Paderborn 2013, ISBN 978-3-8252-3647-2 .

linki internetowe

Wikibooks: Mózg i język  — materiały do ​​nauki i nauczania
Wprowadzenie tematyczne
Społeczeństwa
Instytuty i grupy badawcze
Bazy danych i zbiory linków do artykułów i badaczy
Lista międzynarodowych instytutów oferujących stopnie nauk kognitywnych

Indywidualne dowody

  1. Zobacz Margaret Boden: Umysł jako maszyna. A History of Cognitive Science , Oxford University Press, Oxford 2006, s. 10 n.
  2. dynamizm – Wikisłownik, wolny słownik wielojęzyczny. Źródło 16 kwietnia 2021 .
  3. Chris Eliasmith: Jak zbudować mózg: architektura neuronowa dla poznania biologicznego . Oxford University Press, 2013, ISBN 978-0-19-979454-6 .
  4. Heinz von Foerster i inni: Wprowadzenie do konstruktywizmu . Publikacje Fundacji Carla Friedricha von Siemensa, 5; Monachium, Zurych: Piper-TB, 2006.
  5. Humberto R. Maturana i Francesco J. Varela: Drzewo poznania. Biologiczne korzenie ludzkiej wiedzy . Frankfurt 2010, s. 175 n.
  6. Maturana i Varela, 2010, s. 226.
  7. Maturana i Varela, 2010, s. 251
  8. https://www.tu-darmstadt.de/studieren/studieninteressierte/studienangebote_studiengaenge/studiengang_196608.de.jsp
  9. https://www.tu-chemnitz.de/physik/SEKO/infobsc.html