Først litt repetisjon frå første delen av seminaret: Begrepet taus kunnskap vart først lansert av den ungarske kjemikaren og filosofen Michael Polanyi i boka Personal Knowledge i 1958. Tittelen var eit tydeleg motsvar til positivistane sitt objektive kunnskapssyn.
Johannessen ga tre inngangar til begrepet taus kunnskap:
- Kunnskap som av ulike grunnar er forblitt utematisert, men som ved ulike tiltak og teoretiske anstrengingar kan dokumenterast. Implisitt kunnskap: Kunnskap som vi i prinsippet kan nå verbalt eller skriftleg.
- Skapt av Michael Polany og Thomas S. Kuhn: Frå Polanyi sitt hovudverk ”Personal Knowledge”.
Kuhn: ”The Structure of Scientific Revolutions” kom inn på begrepet i dette verket. ”Det er eit blikk som dei beste forskarane på forskingsfronten har. Eit blikk av dette slaget er ei form for kreativ erfaring og utgjer ein slags permanent beredskap for nye innovasjonar innan forskinga”. - Kunnskap som av logiske grunnar ikkje fullt ut let seg uttrykkja verbalt eller notasjonsmessig. Det starta i to vidt ulike leirar: Den fenomenologiske tradisjonen med Husserl og Heidegger, og den analytiske tradisjonen med Wittgenstein. Men verken Heidegger eller Wittgenstein nemner begrepet ”taus kunnskap”. Hubert Dreyfus (”What Computers Can’t Do” og oppfølgjaren/revidert utgåve: "What Computers Still Can't Do") starta med utgangspunkt i Heidegger sitt arbeid. Kjell S. Johannessen har på si side arbeida med taus kunnskap ut frå Wittgenstein sin ståstad og arbeid.
Kunstig intelligens starta på 1950-talet og hadde si store tid på 60- og 70-talet, og delvis inn i 80-talet. Dataingeniørar meinte i starten at det ville vera ein overkommeleg jobb å innarbeida naturleg språk i datamaskinene. Så feil skulle dei altså ta! Det var ei veldig naiv innstilling til problemstillinga og igjen ei veldig objektivt kunnskapsforståing.
Kunstig intelligens (AI) er daudt som begrep, men området har fått fornya interesse i form av semantisk web osv. Så spørst det om me er i ferd med å gjera dei same feila omatt? Trua på ontologiar med stor O ser i alle fall ut til å peika i same fatale retning, og eg vil påstå at Tim Berners-Lee et. al sin artikkel "The Semantic Web" frå 2001 representerer eit syn i same retning.
Den tidlege Wittgenstein (Tractatus Logico-Philosophicus) vart omfamna av positivistane (men ikkje gjensidig!) fordi delar av verket kan verka som formallogisk ekstremsport. Han seier her at språket vårt er ei avbilding av verkelegheita. Det er eit både enkel og sofistikert utsagn - han tek i følgje Johannessen Platon på ordet og følgjer logikken til ytterpunktet.
I det siste verket, "Philosophical Investigations" er han sin eigen største kritikar og riv ned det meste han bygde opp i Tractatus. Han seier at filosofi er ein stadig kamp mot språket si forheksing av forstanden vår. Her er han ikkje lenger så oppteken av begrepa si meining, men av korleis begrep blir danna. Han advarer mot å eksplisitt uttrykkja alle reglar og normer me omgir oss med: "Wovon man nicht sprechen kann, darüber muß man schweigen".
(Illustrasjonen er henta frå The D. B. Weldon Library)
Ingen kommentarer:
Legg inn en kommentar