Tietojenkäsittely Simulaatiot

Sisällysluettelo:

Tietojenkäsittely Simulaatiot
Tietojenkäsittely Simulaatiot

Video: Tietojenkäsittely Simulaatiot

Video: Tietojenkäsittely Simulaatiot
Video: Tradenomi (AMK), tietojenkäsittely 2024, Maaliskuu
Anonim

Maahantulon navigointi

  • Kilpailun sisältö
  • bibliografia
  • Akateemiset työkalut
  • Ystävät PDF-esikatselu
  • Kirjailija- ja viittaustiedot
  • Takaisin alkuun

Tietojenkäsittely simulaatiot

Ensimmäinen julkaistu ma 6. toukokuuta 2013; aineellinen tarkistus to 26. syyskuuta 2019

Tietokonesimulaatiota pidettiin meteorologian ja ydinfysiikan tieteellisenä välineenä suoraan toisen maailmansodan jälkeen, ja siitä lähtien siitä on tullut välttämätöntä yhä useammilla tieteenaloilla. Luettelo tieteistä, joissa hyödynnetään laajasti tietokonesimulaatioita, on kasvanut sisällyttämään astrofysiikka, hiukkasfysiikka, materiaalitiede, tekniikka, fluidimekaniikka, ilmastotiede, evoluutiobiologia, ekologia, taloustiede, päätöksenteoria, lääketiede, sosiologia, epidemiologia ja monet muut. On jopa muutamia tieteenaloja, kuten kaaos- ja monimutkaisusteoria, joiden olemassaolo on syntynyt heidän tutkimiensa laskennallisten mallien kehittämisen rinnalle.

Hitaan aloituksen jälkeen tiedefilosofit ovat alkaneet kiinnittää enemmän huomiota tietokoneen simuloinnin rooliin tieteessä. Tietokonesimulaatiossa on esiintynyt useita filosofisen kiinnostuksen kohteita: Mikä on tietokoneisimulaation epistemologian rakenne? Mikä on tietokoneen simuloinnin ja kokeilun välinen suhde? Esiintyykö tietokonesimulaatiolla tiedefilosofiaa koskevia kysymyksiä, joita yleinen mallitutkimus ei kata kokonaan? Mitä atk-simulointi opettaa meille ilmaantuvuudesta? Tietoja tieteellisten teorioiden rakenteesta? Tietoja fiktioista (jos sellaisia on) tieteellisessä mallinnuksessa?

  • 1. Mikä on tietokoneen simulointi?

    • 1.1 Kapea määritelmä
    • 1.2 Laaja määritelmä
    • 1.3 Vaihtoehtoinen näkökulma
  • 2. Tietokonesimulaatioiden tyypit

    • 2.1 Yhtälöpohjaiset simulaatiot
    • 2.2 Agenttipohjaiset simulaatiot
    • 2.3 Monimuotoiset simulaatiot
    • 2.4 Monte Carlo -simulaatiot
  • 3. Simulaation tavoitteet
  • 4. Tietokonesimulaatioiden epistemologia

    • 4.1 EOCS: n uudet ominaisuudet
    • 4.2 EOCS ja kokeen epistemologia
    • 4.3 Vahvistus ja validointi
    • 4.4 EOCS ja episteminen oikeus
    • 4.5 Käytännön lähestymistavat EOCS: ään
  • 5. Simulointi ja kokeilu
  • 6. Tietokonesimulointi ja tieteellisten teorioiden rakenne
  • 7. Nousu
  • 8. Kaunokirjallisuus
  • bibliografia
  • Akateemiset työkalut
  • Muut Internet-resurssit
  • Aiheeseen liittyvät merkinnät

1. Mikä on tietokoneen simulointi?

Mikään tietokoneen simuloinnin määritelmä ei ole sopiva. Ensinnäkin termiä käytetään sekä suppeassa että laajassa merkityksessä. Toiseksi, kannattaa ehkä ymmärtää termi useammasta kuin yhdestä näkökulmasta.

1.1 Kapea määritelmä

Kapeimmassa merkityksessä tietokoneistosimulaatio on tietokoneella suoritettava ohjelma, joka käyttää vaiheittaisia menetelmiä tutkimaan matemaattisen mallin likimääräistä käyttäytymistä. Yleensä tämä on malli reaalimaailman järjestelmästä (vaikka kyseinen järjestelmä saattaa olla kuvitteellinen tai hypoteettinen). Tällainen tietokoneohjelma on tietokoneen simulointimalli. Yksi ohjelman ajo tietokoneella on järjestelmän tietokonesimulointi. Algoritmin lähtökohtana on järjestelmän tilan määrittely (kaikkien muuttujien arvo) jossain vaiheessa t. Sitten se laskee järjestelmän tilan ajanhetkellä t + 1. Tästä toista tilaa kuvaavista arvoista se laskee sitten järjestelmän tilan ajanhetkellä t + 2 ja niin edelleen. Kun algoritmi suoritetaan tietokoneella, se tuottaa numeerisen kuvan järjestelmän tilan kehityksestä,sellaisena kuin se on mallinnettu.

Tämä mallimuuttujien arvosekvenssi voidaan tallentaa suurena "data" -kokoelmana, ja sitä tarkastellaan usein tietokoneen näytöllä visualisointimenetelmiä käyttämällä. Usein, mutta varmasti ei aina, visualisointimenetelmät on suunniteltu jäljittelemään jonkin tieteellisen instrumentin tuottoa - niin että simulaatio näyttää mittaavan kiinnostavaa järjestelmää.

Joskus käytetään askel-askeleelta atk-simulointimenetelmiä, koska kiinnostuksen kohteena oleva malli sisältää jatkuvia (differentiaalisia) yhtälöitä (jotka määrittelevät jatkuvia ajanmuutosnopeuksia), joita ei voida ratkaista analyyttisesti - joko periaatteessa tai ehkä vain käytännössä. Tämä vahvistaa seuraavan Paul Humphreysin määritelmän hengen: "mikä tahansa tietokoneella toteutettu menetelmä sellaisten matemaattisten mallien ominaisuuksien tutkimiseksi, joissa analyyttisiä menetelmiä ei ole saatavana" (1991, 500). Mutta jopa suppeana määritelmänä, tämä tulisi lukea huolellisesti, eikä sitä pidä ajatella, että simulaatioita käytetään vain silloin, kun mallissa on analyyttisesti ratkaisemattomia yhtälöitä. Tietokonesimulaatioita käytetään usein joko siksi, että alkuperäinen malli itsessään sisältää erillisiä yhtälöitä - jotka voidaan toteuttaa suoraan simulointiin sopivassa algoritmissa - tai koska alkuperäinen malli koostuu jostakin, jota kuvataan paremmin evoluutiosääntöinä kuin yhtälöinä.

Edellisessä tapauksessa, kun yhtälöitä “diskreisoidaan” (yhtälöiden kääntäminen jatkuvia muutosnopeuksia diskreetteiksi yhtälöiksi), on korostettava, että vaikka on yleistä puhua simulaatioista, jotka “ratkaisevat” nämä yhtälöt, diskreisointi osaa parhaimmillaan löytää vain jotain, joka lähentää jatkuvien yhtälöiden ratkaisua haluttuun tarkkuusasteeseen. Lopuksi, kun puhutaan”tietokoneimulaatiosta” kapeimmassa merkityksessä, meidän pitäisi puhua algoritmin tietystä toteutuksesta tietyssä digitaalisessa tietokoneessa, joka on kirjoitettu tietyllä kielellä, tietyn kääntäjän avulla jne. On tapauksia, joissa minkä tahansa näistä tiedoista tapahtuvien muutosten seurauksena voidaan saada erilaisia tuloksia.

1.2 Laaja määritelmä

Laajemmin voidaan ajatella tietokonesimulaatiota kokonaisvaltaisena menetelmänä järjestelmien tutkimiseksi. Käsitteen tässä laajemmassa merkityksessä se tarkoittaa koko prosessia. Tämä prosessi sisältää mallin valinnan; löytää tapa toteuttaa kyseinen malli muodossa, jota voidaan käyttää tietokoneella; algoritmin tuotoksen laskeminen; ja tuloksena olevan tiedon visualisointi ja tutkiminen. Menetelmä sisältää tämän koko prosessin, jota käytetään päätelmien tekemiseen mallijärjestelmästä, jota yritetään mallintaa, samoin kuin menettelyt, joita käytetään kyseisten päätelmien seuraamuksiin. Tämä on enemmän tai vähemmän määritelmä tietokoneinsimulaatiotutkimuksille Winsberg 2003: ssa (111).”Onnistuneet simulaatiotutkimukset tekevät enemmän kuin laskevat lukuja. He hyödyntävät erilaisia tekniikoita päätelläkseen näitä lukuja. Simulaatioissa käytetään luovasti laskennallisia tekniikoita, jotka voidaan motivoida vain matemaattisesti ja ylimääräisesti teoreettisesti. Sinänsä, toisin kuin yksinkertaiset laskelmat, jotka voidaan suorittaa tietokoneella, simulaatioiden tulokset eivät ole automaattisesti luotettavia. Paljon vaivaa ja asiantuntemusta tarvitaan päätöksentekoon, mitkä simulaatiotulokset ovat luotettavia ja mitkä eivät.” Kun tiedefilosofit kirjoittavat tietokonesimulaatiosta ja esittävät väitteitä siitä, mitä epistemologisilla tai metodologisilla ominaisuuksilla”tietokoneisimulaatioilla” on, he tarkoittavat yleensä termiä, joka ymmärretään tässä simulaatiotutkimuksen laajassa merkityksessä. Paljon vaivaa ja asiantuntemusta tarvitaan päätöksentekoon, mitkä simulaatiotulokset ovat luotettavia ja mitkä eivät.” Kun tiedefilosofit kirjoittavat tietokonesimulaatiosta ja esittävät väitteitä siitä, mitä epistemologisilla tai metodologisilla ominaisuuksilla”tietokoneisimulaatioilla” on, he tarkoittavat yleensä termiä, joka ymmärretään tässä simulaatiotutkimuksen laajassa merkityksessä. Paljon vaivaa ja asiantuntemusta tarvitaan päätöksentekoon, mitkä simulaatiotulokset ovat luotettavia ja mitkä eivät.” Kun tiedefilosofit kirjoittavat tietokonesimulaatiosta ja esittävät väitteitä siitä, mitä epistemologisilla tai metodologisilla ominaisuuksilla”tietokoneisimulaatioilla” on, he tarkoittavat yleensä termiä, joka ymmärretään tässä simulaatiotutkimuksen laajassa merkityksessä.

1.3 Vaihtoehtoinen näkökulma

Molemmissa edellä esitetyissä määritelmissä tietokoneistosimulaatiossa tarkoitetaan tietokoneen käyttämistä perustavanlaatuisesti tietokoneen käytön ratkaisemiseksi tai suunnilleen ratkaisemiseksi mallin matemaattisia yhtälöitä, joiden on tarkoitus edustaa jotakin järjestelmän joko todellista tai hypoteettista. Toinen lähestymistapa on yrittää määritellä “simulointi” riippumattomasti tietokoneen simulaation käsitteestä ja sitten määritellä “tietokone simulointi” koostumuksellisesti: simulointina, jonka suorittaa ohjelmoitu digitaalinen tietokone. Tässä lähestymistavassa simulaatio on mikä tahansa järjestelmä, jonka uskotaan tai toivotaan olevan dynaaminen käyttäytyminen, joka on riittävän samanlainen kuin jokin muu järjestelmä, niin että ensimmäistä voidaan tutkia oppimaan jälkimmäisestä.

Esimerkiksi, jos tutkimme jotakin esinettä, koska uskomme sen olevan riittävän dynaamisesti samanlainen kuin nesteallas, jotta voimme oppia nestealtaista tutkimalla sitä, niin se tarjoaa nestealtaiden simuloinnin. Tämä on Hartmannista löytyvän määritelmän mukainen: se on jotain, joka”jäljittelee yhtä prosessia toisella. Tässä määritelmässä termi 'prosessi' viittaa yksinomaan esineeseen tai järjestelmään, jonka tila muuttuu ajan myötä (1996, 83). Hughes (1999) vastusti, että Hartmannin määritelmä sulki pois simulaatiot, jotka jäljittelevät järjestelmän rakennetta sen dynamiikan sijaan. Humphreys muutti simulaation määritelmäänsä Hartmannin ja Hughesin huomautusten mukaisesti seuraavasti:

Järjestelmä S tarjoaa objektin tai prosessin B ydinsimulaation vain siinä tapauksessa, että S on konkreettinen laskennallinen laite, joka tuottaa ajallisen prosessin avulla ratkaisuja laskentamalliin, joka edustaa oikein B: tä joko dynaamisesti tai staattisesti. Jos lisäksi S: n käyttämä laskennallinen malli edustaa oikein todellisen järjestelmän R rakennetta, niin S tarjoaa järjestelmän R ydinsimulaation suhteessa B. (2004, s. 110)

(Huomaa, että Humphreys määrittelee tietokoneen simuloinnin, ei simuloinnin yleensä, mutta hän tekee sen koostumuksellisen termin määritelmän hengessä.) On huomattava, että Humphreysin määritelmien ansiosta simulaatio on menestystermi, ja se vaikuttaa valitettavasti.. Parempi määritelmä olisi sellainen, joka, kuten viimeisessä osassa, sisälsi sanan "uskoi" tai "toivoi" käsitellä tätä asiaa.

Useimmissa tietokoneen simuloinnin filosofisissa keskusteluissa hyödyllisempi käsite on määritelty kohdassa 1.2. Poikkeuksena on, kun keskustelun nimenomaisena tavoitteena on ymmärtää tietokonesimulaatio esimerkiksi simulaatiosta yleisemmin (katso osa 5). Esimerkkejä simulaatioista, jotka eivät ole tietokonesimulaatioita, ovat San Franciscon lahden kuuluisa fyysinen malli (Huggins & Schultz 1973). Tämä on San Franciscon lahden ja Sacramento-San Joaquin -joen suistojärjestelmän toimiva hydraulinen malli, joka rakennettiin 1950-luvulla armeijan joukkojen insinöörejä tutkimaan mahdollisia teknisiä toimenpiteitä lahdella. Toinen mukava esimerkki, josta keskustellaan laajasti (Dardashti ym., 2015, 2019), on Bose-Einsteinin kondensaateista tehtyjen akustisten”tyhmä reikien” käyttö mustien reikien käyttäytymisen tutkimiseen. Fyysikko Bill Unruh totesi, että tietyissä nesteissä syntyy jotain mustaa reikää vastaavaa, jos nesteessä on alueita, jotka liikkuvat niin nopeasti, että aaltojen on liikuttava äänen nopeutta nopeammin (jotain mitä he eivät voi tehdä) voidakseen paeta heiltä (Unruh 1981). Tällaisilla alueilla olisi käytännössä ääninen tapahtumahorisontti. Unruh kutsui tällaista fyysistä asennusta”tyhmäksi reikäksi” (”tyhmäksi” kuten”mykistykseksi”) ja ehdotti, että sitä voitaisiin tutkia oppiakseen asioita, joita emme tiedä mustista reikistä. Jotakin aikaa tätä ehdotusta pidettiin vain älykkänä ideana, mutta fyysikot ovat viime aikoina huomanneet, että Bose-Einsteinin kondensaatteja käyttämällä ne voivat rakentaa ja tutkia tyhmiä reikiä laboratoriossa. On selvää, miksi meidän pitäisi ajatella tällaista asennusta simulaationa: tyhmä reikä simuloi mustaa reikää. Sen sijaan, että löydettäisiin mustia aukkoja simuloiva tietokoneohjelma, fyysikot etsivät fluididynaamisen asennuksen, jota varten heidän mielestään on hyvä malli ja jolle kyseisellä mallilla on perustavanlaatuisia matemaattisia yhtäläisyyksiä kiinnostavien järjestelmien mallin kanssa. He tarkkailevat nesteen asennuksen käyttäytymistä laboratoriossa, jotta voidaan päätellä mustia reikiä. Tämän jakson simulaatiomääritelmien tarkoituksena on sitten yrittää ymmärtää, missä mielessä atk-simulointi ja tällaiset toiminnot ovat saman suvun lajeja. Saatamme sitten olla paremmassa tilanteessa ymmärtää, miksi 1.3: n mukainen simulointi, joka sattuu toimimaan tietokoneella, on päällekkäinen simulaation kanssa merkityksessä 1.2. Palaamme tähän kohtaan 5.fyysikot löytävät juoksevan dynaamisen asennuksen, jota varten heidän mielestään on hyvä malli ja jolle kyseisellä mallilla on perustavanlaatuisia matemaattisia yhtäläisyyksiä kiinnostavien järjestelmien mallin kanssa. He tarkkailevat nesteen asennuksen käyttäytymistä laboratoriossa, jotta voidaan päätellä mustia reikiä. Tämän jakson simulaatiomääritelmien tarkoituksena on sitten yrittää ymmärtää, missä mielessä atk-simulointi ja tällaiset toiminnot ovat saman suvun lajeja. Saatamme sitten olla paremmassa tilanteessa ymmärtää, miksi 1.3: n mukainen simulointi, joka sattuu toimimaan tietokoneella, on päällekkäinen simulaation kanssa merkityksessä 1.2. Palaamme tähän kohtaan 5.fyysikot löytävät juoksevan dynaamisen asennuksen, jota varten heidän mielestään on hyvä malli ja jolle kyseisellä mallilla on perustavanlaatuisia matemaattisia yhtäläisyyksiä kiinnostavien järjestelmien mallin kanssa. He tarkkailevat nesteen asennuksen käyttäytymistä laboratoriossa, jotta voidaan päätellä mustia reikiä. Tämän jakson simulaatiomääritelmien tarkoituksena on sitten yrittää ymmärtää, missä mielessä atk-simulointi ja tällaiset toiminnot ovat saman suvun lajeja. Saatamme sitten olla paremmassa tilanteessa ymmärtää, miksi 1.3: n mukainen simulointi, joka sattuu toimimaan tietokoneella, on päällekkäinen simulaation kanssa merkityksessä 1.2. Palaamme tähän kohtaan 5.

Barberousse et ai. (2009) ovat kuitenkin kritisoineet tätä analogiaa. He huomauttavat, että tietokonesimulaatiot eivät toimi Unruhin simulaation tapaan. Ei ole niin, että tietokone materiaaliobjektina ja tavoitejärjestelmä noudattavat samoja differentiaaliyhtälöitä. Hyvä viittaus simulaatioihin, jotka eivät ole tietokonesimulaatioita, on Trenholme 1994.

2. Tietokonesimulaatioiden tyypit

Kaksi tyyppistä tietokonesimulaatiota erotetaan usein: yhtälöpohjaiset simulaatiot ja agenttipohjaiset (tai yksilöpohjaiset) simulaatiot. Kummankin tyyppisiä atk-simulaatioita käytetään kolmeen yleiseen tarkoitukseen: ennustamiseen (sekä pointwise- että globaaliin / laadulliseen), ymmärtämiseen ja etsivään tai heuristiseen tarkoitukseen.

2.1 Yhtälöpohjaiset simulaatiot

Yhtälöpohjaisia simulaatioita käytetään yleisimmin fysiikassa ja muissa tieteissä, joissa on hallitseva teoria, joka voi ohjata differentiaaliyhtälöihin perustuvien matemaattisten mallien rakentamista. Käytän tässä termiä "yhtälöpohjainen" viitaten simulaatioihin, jotka perustuvat sellaisiin globaaleihin yhtälöihin, jotka yhdistämme fyysisiin teorioihin, toisin kuin "evoluutiosäännöt" (joista keskustellaan seuraavassa osassa). Yhtälöpohjaiset simulaatiot voivat olla joko partikkelipohjaiset, joissa on n monia erillisiä kappaleita ja joukko differentiaaliyhtälöitä, jotka hallitsevat niiden vuorovaikutusta, tai ne voivat olla kenttäpohjaisia, missä on joukko yhtälöitä, jotka ohjaavat jatkuvan väliaineen tai kentän aikakehitystä. Esimerkki entisestä on galaksien muodostumisen simulointi,jossa erillisten kappaleiden äärellisen kokoelman välinen gravitaatiovuorovaikutus on diskreisoitunut ajassa ja tilassa. Esimerkki jälkimmäisestä on nesteen, kuten meteorologisen järjestelmän, kuten kovan myrskyn, simulointi. Täällä järjestelmää käsitellään jatkuvana väliaineena - juoksevana aineena - ja kenttä, joka edustaa sen merkityksellisten muuttujien jakautumista avaruudessa, hylätään avaruudessa ja päivitetään sitten erillisillä aikaväleillä.

2.2 Agenttipohjaiset simulaatiot

Agenttipohjaiset simulaatiot ovat yleisimpiä yhteiskuntatieteissä ja käyttäytymistieteissä, vaikka niitä löytyy myös sellaisilta aloilta kuin keinotekoinen elämä, epidemiologia, ekologia ja mikä tahansa tieteenala, jossa tutkitaan monien yksilöiden verkottunutta vuorovaikutusta. Agenttipohjaiset simulaatiot ovat samanlaisia kuin partikkelipohjaiset simulaatiot siinä mielessä, että ne edustavat n-monien erillisten yksilöiden käyttäytymistä. Mutta toisin kuin yhtälöpartikkelipohjaiset simulaatiot, ei ole olemassa globaaleja differentiaaliyhtälöitä, jotka hallitsisi yksilöiden liikkeitä. Agenttipohjaisissa simulaatioissa yksilöiden käyttäytyminen määräytyy pikemminkin heidän omien paikallisten sääntöjensä mukaisesti

Annetaan yksi esimerkki: kuuluisa ja uraauurtava agenttipohjainen simulointi oli Thomas Schellingin (1971) malli "segregaatiosta". Hänen simulaationsa edustajat olivat henkilöitä, jotka “asuivat” shakkilaudalla. Henkilöt jaettiin yhteiskunnan kahteen ryhmään (esim. Kaksi eri rotua, pojat ja tytöt, tupakoitsijat ja tupakoimattomat jne.). Kukin taulun neliö edusti taloa, korkeintaan yksi henkilö taloa kohti. Henkilö on onnellinen, jos hänellä on tietty prosenttiosuus oman ryhmänsä naapureista. Onnelliset agentit pysyvät siellä missä he ovat, onneton agentit muuttuvat vapaisiin paikkoihin. Schelling havaitsi, että lauta kehittyi nopeasti voimakkaasti eristetyksi sijaintikuvaksi, jos agenttien”onnellisuussäännöt” määritettiin siten, että erottelu suostui voimakkaasti. Yllättäen kuitenkinhän havaitsi myös, että alun perin integroidut levyt kaatuivat täydelliseen erotteluun, vaikka agenttien onnellisuussäännöt ilmaisivat vain lievän mieluummin omien naapureidensa pitämistä.

2.3 Monimuotoiset simulaatiot

Kohdassa 2.1 keskustelimme yhtälöpohjaisista malleista, jotka perustuvat hiukkasmenetelmiin, ja malleihin, jotka perustuvat kenttämenetelmiin. Mutta jotkut simulaatiomallit ovat erityyppisten mallinnusmenetelmien hybridejä. Erityisesti moniskaalaiset simulaatiomallit yhdistävät mallinnuselementit eri kuvausasteikoista. Hyvä esimerkki tästä olisi malli, joka simuloi irtoaineiden dynamiikkaa käsittelemällä materiaalia jännityksen ja rasituksen kentällä suhteellisen karkealla kuvaustasolla, mutta joka zoomaa materiaalin tietyille alueille, joilla tärkeät pienimuotoiset vaikutukset ovat ja mallintaa niitä pienempiä alueita suhteellisen hienorakeisilla mallintamismenetelmillä. Tällaiset menetelmät voivat luottaa molekyylidynamiikkaan tai kvantmekaniikkaan,tai molemmat - kumpikin on hienojakoisempi kuvaus aineesta kuin mitä tarjotaan käsittelemällä materiaalia kentäksi. Multiscale-simulointimenetelmät voidaan edelleen jakaa sarja-moniskaalaisiin ja rinnakkaisiin moniskaalaisiin menetelmiin. Perinteisempi menetelmä on sarjamuotoinen mallinnus. Ideana on valita alue, simuloida se alemmalla kuvaustasolla, tiivistää tulokset parametrijoukkoon, joka sulautuu ylemmän tason malliin, ja siirtää ne ylös korkeammalla tasolla laskettavan algoritmin osaan.tiivistää tulokset parametrijoukkoon, joka sulautuu ylemmän tason malliin, ja siirtää ne korkeamman tason laskenta-algoritmin osaan.tiivistää tulokset parametrijoukkoon, joka sulautuu ylemmän tason malliin, ja siirtää ne korkeamman tason laskenta-algoritmin osaan.

Sarjaiset monitaajuusmenetelmät eivät ole tehokkaita, kun eri asteikot on kytketty voimakkaasti toisiinsa. Kun eri asteikot vuorovaikutuksessa voimakkaasti tuottavat havaitun käyttäytymisen, vaaditaan lähestymistapaa, joka simuloi kutakin aluetta samanaikaisesti. Tätä kutsutaan rinnakkaiseksi monitasoiseksi mallinnukseksi. Rinnakkainen monitasoinen mallinnus on perusta lähes kaikkialla esiintyvälle simulointimenetelmälle: ns.”Alijärjestelmä” -mallinnus. Alijärjestelmän mallinnuksella tarkoitetaan tärkeiden pienimuotoisten fysikaalisten prosessien esittämistä, jotka tapahtuvat pituusskaaleissa ja joita ei voida riittävästi ratkaista tietyn simulaation ruudukon koosta. (Muista, että monet simulaatiot syrjäyttävät jatkuvat yhtälöt, joten niillä on suhteellisen mielivaltainen äärellinen “ristikon koko”.) Esimerkiksi nesteiden turbulenssin tutkimuksessayleinen käytännöllinen laskentastrategia on ottaa huomioon puuttuvat pienimuotoiset pyörteet (tai pyörteet), jotka kuuluvat ruudukkosoluihin. Tämä tehdään lisäämällä suurten liikkeiden pyörreviskositeetti, joka luonnehtii energian kuljetusta ja hajoamista pienemmän mittakaavan virtauksessa, tai mikä tahansa sellainen ominaisuus, joka esiintyy liian pienessä mittakaavassa, jotta verkko voi sieppaa sen.

Ilmastotieteessä ja sukulaisilla tieteenaloilla alijärjestelmän mallintamista kutsutaan parametroimiseksi. Tämä viittaa jälleen menetelmään korvata prosessit, jotka ovat liian pienimuotoisia tai monimutkaisia, jotta ne voidaan fyysisesti edustaa mallissa, yksinkertaisemmalla matemaattisella kuvauksella. Tämä on toisin kuin muut prosessit - esimerkiksi ilmakehän laajamittainen virtaus -, jotka lasketaan ristikkotasolla perusteorian mukaisesti. Sitä kutsutaan”parametroimiseksi”, koska tarvitaan erilaisia ei-fysikaalisia parametreja erittäin likimääräisten algoritmien ohjaamiseksi, jotka laskevat aliristikon arvot. Esimerkkejä parametroinnista ilmastosimulaatioissa ovat sadepisaroiden laskeutumisnopeus, ilmakehän säteilyn siirtymisnopeus ja pilvien muodostumisnopeus. Esimerkiksi keskimääräinen pilvisyys yli 100 km 2ruudukkorasia ei liity puhtaasti laatikon keskimääräiseen kosteuteen. Siitä huolimatta, kun keskimääräinen kosteus kasvaa, keskimääräinen pilvisyys kasvaa myös - siten voi olla parametri, joka yhdistää keskimääräisen pilvisyyden keskimääräiseen kosteuteen ruudukkorasian sisällä. Vaikka pilvien muodostumisen nykyajan parametroinnit ovatkin tätä hienostuneempia, perusidea havainnollistetaan hyvin esimerkissä. Aliverkon mallinnusmenetelmien käytöllä simuloinnissa on tärkeitä seurauksia simulaation epistemologian rakenteen ymmärtämiseen. Tätä käsitellään tarkemmin luvussa 4.

Alaruudukkojen mallintamismenetelmät voidaan verrata toiseen tyyppiseen rinnakkaiseen monitasoiseen malliin, jossa aliverkon algoritmit ovat teoreettisemmin periaatteellisia, mutta niitä motivoi teoria eri kuvaustasolla. Esimerkiksi edellä mainitussa irtotavaraa simuloivassa esimerkissä pienempää kuvaustasoa ohjaava algoritmi ei ole rakennettu housujen istuimelle. Pienempää tasoa ohjaava algoritmi on oikeastaan teoreettisesti periaatteellisempi kuin korkeampi taso siinä mielessä, että fysiikka on perusteellisempaa: kvantmekaniikka tai molekyylidynamiikka vs. jatkumomekaniikka. Tällaiset monimuotoiset mallit, toisin sanoen, mukulauttavat yhteen teorioiden resurssit eri kuvaustasoilla. Joten ne tarjoavat mielenkiintoisia esimerkkejä, jotka provosoivat ajattelumme sisäisistä suhteista,ja se haastaa laajalti vallitsevan näkemyksen, jonka mukaan epäjohdonmukaisella lainsäädännöllä ei voi olla malleja.

2.4 Monte Carlo -simulaatiot

Tieteellisessä kirjallisuudessa on toinen suuri luokka tietosimulaatioita, nimeltään Monte Carlo (MC) Simulation. MC-simulaatiot ovat tietokonealgoritmeja, jotka käyttävät satunnaisuutta matemaattisen mallin ominaisuuksien laskemiseen ja joissa algoritmin satunnaisuus ei ole kohdemallin ominaisuus. Mukava esimerkki on satunnaisen algoritmin käyttö π: n arvon laskemiseen. Jos piirrät yksikkö neliön paperille ja kirjoitat siihen ympyrän ja pudotat satunnaisesti esineiden kokoelman neliön sisälle, ympyrässä laskeutuvien esineiden osuus olisi suunnilleen yhtä suuri kuin π / 4. Tietokonesimulaatiota, joka simuloi tällaista menettelyä, kutsutaan MC-simulaatioksi π: n laskemiseen.

Monet tiedefilosofit ovat poikenneet tavallisesta tieteellisestä kielestä täällä ja ovat poistuneet ajattelemasta MC-simulaatioita aitoina simulaatioina. Grüne-Yanoff ja Weirich (2010) tarjoavat seuraavan päättelyn:”Monte Carlon lähestymistavalla ei ole jäljittelevää tarkoitusta: Se jäljittelee determinististä järjestelmää ei voidakseen toimia korvikkeena, jota tutkitaan sen sijaan, vaan vain tarjotakseen vaihtoehtoinen laskenta deterministisen järjestelmän ominaisuuksista”(s. 30). Tämä osoittaa, että MC-simulaatiot eivät sovi mihinkään yllä olevista määritelmistä sopivasti. Toisaalta, ero filosofien ja tavallisen kielen välillä voidaan ehkä jakaa neliöön huomaamalla, että MC-simulaatiot simuloivat kuvitteellista prosessia, jota voidaan käyttää laskettaessa jotain merkityksellistä jonkin muun prosessin tutkimiseksi. Oletetaan, että mallinnan planeetta kiertorataa ja laskelmani täytyy tietää π: n arvo. Jos teen viimeisessä kappaleessa mainitun MC-simulaation, simuloin prosessia, jolla kohteet pudotetaan satunnaisesti neliöksi, mutta mallintavana on planeettarata. Tässä mielessä MC-simulaatiot ovat simulaatioita, mutta ne eivät ole niiden järjestelmien simulaatioita, joita käytetään tutkimaan. Kuten Beisbart ja Norton (2012) huomauttavat, jotkut MC-simulaatiot (nimittäin ne, jotka käyttävät MC-tekniikoita fyysiseen järjestelmään viittaavien stokastisten dynaamisten yhtälöiden ratkaisemiseksi) ovat itse asiassa tutkittujen järjestelmien simulaatioita. Tässä mielessä MC-simulaatiot ovat simulaatioita, mutta ne eivät ole niiden järjestelmien simulaatioita, joita käytetään tutkimaan. Kuten Beisbart ja Norton (2012) huomauttavat, jotkut MC-simulaatiot (nimittäin ne, jotka käyttävät MC-tekniikoita fyysiseen järjestelmään viittaavien stokastisten dynaamisten yhtälöiden ratkaisemiseksi) ovat itse asiassa tutkittujen järjestelmien simulaatioita. Tässä mielessä MC-simulaatiot ovat simulaatioita, mutta ne eivät ole niiden järjestelmien simulaatioita, joita käytetään tutkimaan. Kuten Beisbart ja Norton (2012) huomauttavat, jotkut MC-simulaatiot (nimittäin ne, jotka käyttävät MC-tekniikoita fyysiseen järjestelmään viittaavien stokastisten dynaamisten yhtälöiden ratkaisemiseksi) ovat itse asiassa tutkittujen järjestelmien simulaatioita.

3. Simulaation tavoitteet

On olemassa kolme yleistä luokkaa tarkoituksia, joihin tietokone simulaatiot voidaan sijoittaa. Simulaatioita voidaan käyttää heuristisiin tarkoituksiin, ennustaaksemme tietoja, joita meillä ei ole, ja tuottamaan ymmärrystä jo olemassa olevista tiedoista.

Heurististen mallien luokassa simulaatiot voidaan jakaa edelleen niihin, joita käytetään tiedon välittämiseen muille, ja sellaisiin, joita käytetään edustamaan tietoa itsellemme. Kun Watson ja Crick leikkiivät tinalevyillä ja metallilangalla, he tekivät aluksi jälkimmäisen, ja entisen, kun he näyttivät tuloksia muille. Kun armeijan joukot rakensivat San Franciscon lahden mallin vakuuttaakseen äänioikeudellisen väestön siitä, että tietty interventio oli vaarallinen, he käyttivät sitä tällaiseen heuristiseen tarkoitukseen. Tietokonesimulaatioita voidaan käyttää molempiin tällaisiin tarkoituksiin - mahdollisten esitysrakenteiden piirteiden tutkimiseksi; tai välittää tietoa muille. Esimerkiksi: luonnollisten prosessien, kuten bakteerien lisääntymisen, tektonisen siirtymisen, kemiallisten reaktioiden,ja evoluutiota on käytetty kaikkia luokkahuoneissa, jotta opiskelijat voivat visualisoida piilotetun rakenteen ilmiöissä ja prosesseissa, jotka ovat epäkäytännöllisiä, mahdottomia tai kalliita havainnollistaa "märkässä" laboratorioympäristössä.

Toinen laaja luokka tarkoituksia, joihin tietokonesimulaatiot voidaan asettaa, on kertoa meille siitä, kuinka meidän pitäisi odottaa jonkin reaalimaailman järjestelmän käyttäytyvän tietyissä olosuhteissa. Puhuen löysästi: tietokoneen simulointia voidaan käyttää ennustamiseen. Voimme käyttää malleja tulevaisuuden ennustamiseen tai menneisyyden uudelleenmuodostamiseen; voimme käyttää niitä tarkkojen tai löysien ja yleisten ennusteiden tekemiseen. Mitä tulee simulaatioiden tekemien ennusteiden suhteelliseen tarkkuuteen, voimme olla hieman hienovaraisempia taksonomissamme. On a) Pisteennusteita: Missä planeetta Mars on 21. lokakuuta 2300? b)”Laadulliset” tai globaalit tai systeemiset ennusteet:Onko tämän planeetan kiertorata vakaa? Mikä skaalauslaki syntyy tällaisissa järjestelmissä? Mikä on tällaisen järjestelmän vetovoiman fraktaalimitta? ja c) Alueen ennusteet: On 66% todennäköistä, että maapallon keskilämpötila nousee välillä 2–5 astetta vuoteen 2100 mennessä; on”erittäin todennäköistä”, että merenpinta nousee ainakin kahdella jalkalla; on "epätodennäköistä", että lämpöjohto sammuu seuraavan 50 vuoden aikana.

Lopuksi simulaatioilla voidaan ymmärtää järjestelmiä ja niiden käyttäytymistä. Jos meillä on jo tietoja, jotka kertovat meille, kuinka jotkut järjestelmät käyttäytyvät, voimme käyttää tietokoneen simulointia vastata kysymyksiin siitä, miten nämä tapahtumat ovat saattaneet tapahtua; tai siitä, miten nuo tapahtumat todella tapahtuivat.

Kun ajatellaan seuraavan osan aihetta, tietokonesimulaatioiden epistemologiaa, meidän on pidettävä mielessä myös se, että simulaatiotulosten rankaisemiseksi tarvittavat toimenpiteet riippuvat usein suurelta osin mistä edellä mainitusta tarkoituksesta tai tarkoituksista simulaatio pannaan.

4. Tietokonesimulaatioiden epistemologia

Kun atk-simulointimenetelmät ovat saaneet merkityksen yhä useammilla tieteenaloilla, kysymys niiden luotettavuudesta uuden tiedon tuottamiseksi on kasvanut, varsinkin kun simulaatioiden odotetaan laskevan episteemisiksi vertaisiksi, joilla on kokeiluja ja perinteisiä analyyttisiä teoreettisia menetelmiä. Asiaan liittyy aina kysymys siitä, ovatko tietyn tietokoneen simulaation tulokset riittävän tarkkoja aiottuun tarkoitukseen. Jos sääennusteita käytetään simuloinnilla, ennustaako se meitä kiinnostavia muuttujia riittävän tarkkuudella vastaamaan kuluttajiensa tarpeita? Jos keskilännen tasangon yläpuolella olevan ilmakehän simulaatiota käytetään ymmärtämään voimakkaan ukkosrakenteen rakennetta,Onko meillä luottamusta siihen, että virtauksen rakenteet, joilla on selittävä rooli kertomuksessamme siitä, miksi myrsky joskus jakautuu kahteen osaan tai miksi se joskus muodostaa tornadoja - on kuvattu riittävän tarkasti tukemaan luottamustamme selitykseen ? Jos suunnittelussa ja suunnittelussa käytetään simulaatiota, ovatko simulaation tekemät ennusteet riittävän luotettavia tiettyjen suunnitteluparametrivalikoimien seuraamiseksi tai uskomuksemme vahvistamiseksi, että tietty lentokoneen siiven muotoilu toimii? Jos oletetaan, että vastaus näihin kysymyksiin on joskus "kyllä", ts. Että tällaiset päätelmät ovat ainakin joskus perusteltuja, keskeinen filosofinen kysymys on: mikä oikeuttaa ne? Yleisemmin,Kuinka voidaan väittää, että simulointi on riittävän hyvä aiottuun tarkoitukseen? Nämä ovat tietokone simuloinnin (EOCS) epistemologian keskeisiä kysymyksiä.

Koska vahvistusteoria on yksi tiedefilosofian perinteisistä aiheista, voi vaikuttaa itsestään selvältä, että viimeksi mainitulla olisi resursseja aloittaa lähestyminen näihin kysymyksiin. Winsberg (1999) kuitenkin väitti, että tietoväitteiden validointiin liittyvissä aiheissa tiedefilosofia on perinteisesti kiinnittänyt huomiota teorioiden perusteluihin, ei niiden soveltamiseen. Toisaalta suurin osa simuloinnista, siinä määrin kuin siinä käytetään teoriaa, pyrkii käyttämään vakiintunutta teoriaa. EOCS, toisin sanoen, harvoin testaa simulaatioon mahdollisesti meneviä perusteorioita ja useimmiten hypoteesien uskottavuuden määrittämistä, jotka ovat osittain seurausta näiden teorioiden sovelluksista.

4.1 EOCS: n uudet ominaisuudet

Winsberg (2001) väitti, että toisin kuin epistemologisissa kysymyksissä, jotka ovat keskeisessä asemassa perinteisessä vahvistuksen teoriassa, riittävän EOCS: n on täytettävä kolme ehtoa. Erityisesti sen on otettava huomioon se tosiseikka, että atk-simuloinneilla tuotettu tieto on tulosta johtopäätöksistä, jotka ovat alaspäin, taipuvaisia ja itsenäisiä.

Alaspäin. EOCS: n on heijastettava tosiasiaa, että monissa tapauksissa hyväksytyt tieteelliset teoriat ovat lähtökohta tietokoneen simulointimallien rakentamiselle ja niiden on oltava tärkeässä asemassa päätelmien tekemisessä simulaatiotuloksista tosielämän kohdejärjestelmiä koskeviin päätelmiin. Sana”alaspäin” oli tarkoitettu osoittamaan tosiasiaa, että toisin kuin useimmat tieteelliset päätelmät, jotka ovat perinteisesti kiinnostuneet filosofeista ja jotka siirtyvät havainnointitapauksista teorioihin, tässä meillä on päätelmiä, jotka tehdään (osittain) korkeasta teoriasta tiettyyn ilmiöiden piirteet.

Motley. EOCS: n on otettava huomioon, että simulaatiotulokset riippuvat kuitenkin tyypillisesti paitsi teoriasta, myös monista muista malliainesosista ja resursseista, mukaan lukien parametroinnit (käsitelty edellä), numeeriset ratkaisumenetelmät, matemaattiset temput, likiarvot ja idealisoinnit, suorat fikssit, tapauskohtaiset oletukset, toimintokirjastot, kääntäjät ja tietokonelaitteet, ja mikä tärkeintä, veri, hiki ja paljon kokeilun ja virheen kyyneleet.

Autonominen. EOCS: n on otettava huomioon simulaatiolla tuotetun tiedon autonomia siinä mielessä, että simulaation tuottamaa tietoa ei voida rangaista kokonaan havainnointiin verrattuna. Simulaatioita käytetään yleensä sellaisten ilmiöiden tutkimiseen, joissa tietoja on vähän. Näissä olosuhteissa simulaatioiden on tarkoitus korvata kokeilut ja havainnot maailman tietolähteinä, koska asiaan liittyvät kokeet tai havainnot ovat ulottumattomissa, periaatteellisista, käytännöllisistä tai eettisistä syistä.

Parker (2013) on huomauttanut, että näiden olosuhteiden hyödyllisyys vaarantuu jonkin verran siitä, että se on keskittynyt liian paljon simulointiin fysiikassa ja muilla tieteenaloilla, joissa simulointi on teoriapohjaista ja yhtälöpohjaista. Tämä vaikuttaa oikealta. Yhteiskunta- ja käyttäytymistieteissä ja muilla tieteenaloilla, joissa edustajapohjainen simulointi (ks. 2.2) ovat enemmän normi, ja joissa mallit rakennetaan vakiintuneiden ja kvantitatiivisten teorioiden puuttuessa, EOCS: n pitäisi todennäköisesti karakterisoida muilla termeillä.

Esimerkiksi jotkut agenttipohjaista simulaatiota käyttävät yhteiskuntatieteilijät harjoittavat menetelmää, jossa sosiaaliset ilmiöt (esimerkiksi havaittu malli, kuten segregaatio) selitetään tai otetaan huomioon luomalla samanlaisia näköisiä ilmiöitä simulaatioissaan (Epstein ja Axtell 1996; Epstein) 1999). Mutta tämä herättää omat epistemologiset kysymyksensä. Mitä tarkalleen on saatu aikaan, millaista tietoa on saatu, kun havaittu sosiaalinen ilmiö toistetaan enemmän tai vähemmän edustajapohjaisella simulaatiolla? Onko tämä selitys ilmiölle? Mahdollinen selitys? (katso esim. Grüne-Yanoff 2007). Giuseppe Primiero (2019) väittää, että on olemassa koko "keinotekoisten tieteiden" alue, joka on rakennettu edustajapohjaisten ja usean agentin järjestelmäpohjaisten simulaatioiden ympärille,ja että se vaatii omaa epistemologiaa - sellaista, jossa validointia ei voida määritellä vertaamalla olemassa olevaan todellisen maailman järjestelmään, mutta se on määriteltävä visioon aiotulle järjestelmälle.

On myös oikeudenmukaista sanoa, kuten Parker tekee (2013), että yllä esitetyissä olosuhteissa ei kiinnitetä riittävästi huomiota simulaatioiden käyttämiseen tarkoitettuihin erilaisiin tarkoituksiin (kuten 2.4 kohdassa keskustellaan). Jos käytämme simulaatiota yksityiskohtaisten kvantitatiivisten ennusteiden tekemiseen kohdejärjestelmän tulevasta käyttäytymisestä, tällaisten päätelmien epistemologia saattaa vaatia tiukempia standardeja kuin ne, jotka ovat mukana, kun tehdyt päätelmät koskevat kokonaisuuden yleistä, laadullista käyttäytymistä luokka järjestelmiä. Itse asiassa on myös oikeudenmukaista sanoa, että paljon enemmän työtä voitaisiin tehdä luokittelemalla sellaisia tarkoituksia, joihin atk-simulaatiot asetetaan, ja rajoitukset, joita nämä tarkoitukset asettavat heidän epistemologiansa rakenteelle.

Frigg ja Reiss (2009) väittivät, että mikään näistä kolmesta ehdosta ei ole uusi tietokoneen simuloinnissa. He väittivät, että tavallisessa paperin ja kynän mallinnuksessa on nämä ominaisuudet. Itse asiassa he väittivät, että atk-simulointi ei voisi mahdollisesti herätä uusia epistemologisia kysymyksiä, koska epistemologiset kysymykset voitaisiin jakaa puhtaasti kysymykseen simulaation taustalla olevan mallin tarkoituksenmukaisuudesta, joka on identtinen tavallisesti esiin nousevien epistemologisten kysymysten kanssa. mallintaminen, ja kysymys ratkaisun oikeellisuudesta simulaation toimittamille malliyhtälöille, joka on matemaattinen kysymys eikä liity tieteen epistemologiaan. Ensimmäisestä kohdasta Winsberg (2009b) vastasi, että simuloinnissa oli uusi kaikkien kolmen ominaisuuden samanaikainen yhtymäkohta. Palaamme kohtaan 4.3 toiseen kohtaan

4.2 EOCS ja kokeen epistemologia

Jotkut EOCS-tutkimuksista ovat kehittäneet analogioita tietokoneen simuloinnin välillä, jotta voidaan hyödyntää viimeaikaista työtä kokeen epistemologiassa, erityisesti Allan Franklinin työtä; Katso kohta fysiikan kokeiluista.

Kokeen epistemologiaa koskevassa työssään Franklin (1986, 1989) yksilöi useita strategioita, joita kokeilijat käyttävät rationaalisen luottamuksen lisäämiseen tuloksiinsa. Weissart (1997) ja Parker (2008a) väittivät erilaisten analogioiden muotoja näiden strategioiden ja useiden strategioiden välillä, joita simulaattoreilla on käytettävissään seuraamusten myöntämiseksi. Yksityiskohtaisin analyysi näistä suhteista löytyy Parker 2008a: sta, jossa hän käyttää näitä analogioita myös korostamaan simulaatiomallin arvioinnin nykyisten lähestymistapojen heikkouksia.

Winsberg (2003) hyödyntää myös Ian Hackingin (1983, 1988, 1992) kokeilufilosofiaa koskevaa työtä. Yksi Hackingin keskeisistä kokemuksista kokeilusta on vangittu hänen iskulauseessaan, jonka mukaan kokeilla on oma elämänsä (1992: 306). Hakkeroinnin tarkoituksena oli välittää kaksi asiaa tällä iskulauseella. Ensimmäinen oli reaktio esimerkiksi Kuhnista peräisin olevaan epävakaaseen tieteen kuvaan. Hacking (1992) viittaa siihen, että kokeelliset tulokset voivat pysyä vakaina jopa dramaattisten muutosten yhteydessä muissa tieteen osa-alueissa. Toinen, siihen liittyvä kohta, jonka hän aikoi kertoa, oli, että”kokeet ovat orgaanisia, kehittyvät, muuttuvat ja silti säilyttävät tietyn pitkäaikaisen kehityksen, joka saa meidät puhumaan kokeiden toistamisesta ja toistamisesta” (1992: 307). Jotkut tekniikoista, joita simulaattorit käyttävät malliensa rakentamiseen, saadaan tunnistetiedot samalla tavalla kuin Hackingin mukaan instrumentit ja kokeelliset menettelyt ja menetelmät tekevät; valtakirjat kehittyvät pitkän ajanjakson ajan ja muuttuvat syvästi perinteisiin sidottuiksi. Hackingin kielellä tekniikat ja oletusjoukot, joita simulaattorit käyttävät, muuttuvat”itsensä vakuuttaviksi”. Ehkä parempi ilmaus olisi se, että heillä on omat valtakirjansa. Tämä tarjoaa vastauksen 4.1 kohdassa esitettyyn ongelmaan ymmärtää, kuinka simuloinnilla voi olla kannattava epistemologia huolimatta sen päätelmistä ja itsenäisestä luonteesta.tekniikat ja oletusjoukot, joita simulaattorit käyttävät, tulevat”itse puolustaviksi”. Ehkä parempi ilmaus olisi se, että heillä on omat valtakirjansa. Tämä tarjoaa vastauksen 4.1 kohdassa esitettyyn ongelmaan ymmärtää, kuinka simuloinnilla voi olla kannattava epistemologia huolimatta sen päätelmistä ja itsenäisestä luonteesta.tekniikat ja oletusjoukot, joita simulaattorit käyttävät, tulevat”itse puolustaviksi”. Ehkä parempi ilmaus olisi se, että heillä on omat valtakirjansa. Tämä tarjoaa vastauksen 4.1 kohdassa esitettyyn ongelmaan ymmärtää, kuinka simuloinnilla voi olla kannattava epistemologia huolimatta sen päätelmistä ja itsenäisestä luonteesta.

Parker (2008b), joka on inspiroinut toista kokeilufilosofia (Mayo 1996), ehdottaa korjausta joihinkin puutteisiin nykyisissä lähestymistavoissa simulointimallien arviointiin. Parker ehdottaa tässä työssä, että Mayon virhetilastollinen lähestymistapa perinteisen kokeen ymmärtämiseen - joka käyttää käsitettä”vakava testi” - voisi valaista simulaation epistemologiaa. Simulaation epistemologian keskeiseksi kysymykseksi virhetilastollisesta näkökulmasta tulee seuraava: 'Mikä takaa sen, että tietokoneen simuloinnin pitäminen on vakava testi joillekin luonnon maailmaa koskevalle hypoteesille? Se mikä takaa sen johtopäätöksen, että simulaatio ei todennäköisesti anna tuloksia, jotka se itse asiassa antoi, jos kiinnostuksen hypoteesi olisi väärä (2008b,380)? Parker uskoo, että liian suurelta osin simulointimallien arviointiin menevää puuttuu tarkka ja rakenteellinen, koska

koostuu vähän enemmän kuin rinnakkaisista simulaatiotulosten ja havaintotietojen vertailuista, ja vain vähän tai ei lainkaan nimenomaista perustelua siitä, mitä nämä vertailut osoittavat mallin kyvystä tarjota näyttöä erityisistä kiinnostavista tieteellisistä hypoteeseista. (2008b, 381)

Hän vetoaa suoraan Mayon (1996) työhön ja väittää, että simulaation epistemologian pitäisi sen sijaan tarjota jonkin verran mahdollisia "kanonisia virheitä" sekä strategioita heidän läsnäolonsa tutkimiseksi.

4.3 Vahvistus ja validointi

Simulaation harjoittajilla, etenkin teknisissä yhteyksissä, asetestauksessa ja ilmastotieteessä, on taipumus ajatella EOCS: n todentamisen ja validoinnin kannalta. Todentamisen sanotaan olevan prosessi, jolla määritetään, lähentääkö simulaation lähtö todellisen ratkaisun alkuperäisen mallin differentiaaliyhtälöihin. Toisaalta validoinnin sanotaan olevan prosessi sen määrittämiseksi, onko valittu malli riittävän hyvä reaalimaailman järjestelmän esitys simulaatiota varten. Suunnittelu- ja validointikirjallisuus insinöörien ja tutkijoiden toimesta on valtava, ja se on alkanut kiinnittää huomiota filosofien toimesta.

Vahvistus voidaan jakaa ratkaisun varmentamiseen ja kooditodistukseen. Entinen tarkistaa, että aiotun algoritmin lähtö lähestyy todellisia ratkaisuja alkuperäisen mallin differentiaaliyhtälöihin. Jälkimmäinen tarkistaa, että koodi kirjoitettuna suorittaa aiotun algoritmin. Tiedefilosofit ovat useimmiten sivuuttaneet koodin tarkistamisen; luultavasti siksi, että sitä on pidetty enemmän tietotekniikan kuin empiirisen tieteen ongelmana - ehkä virhe. Osa ratkaisun varmennuksesta koostuu lasketun tuotoksen vertaamisesta analyyttisiin ratkaisuihin (ns. Benchmark-ratkaisut). Vaikka tämä menetelmä voi tietenkin auttaa hyödyntämään tietokoneen simuloinnin tuloksia, se itsessään on riittämätön,koska simulaatioita käytetään usein juuri siksi, että analyyttistä ratkaisua ei ole saatavana kiinnostavilla ratkaisualueiden alueilla. Saatavana on myös muita epäsuoria tekniikoita: joista tärkein on luultavasti tarkistaa, onko laskettu lähtö lähentymässä vakaaksi ratkaisuksi, kun diskretointitaulukon aika ja paikallinen resoluutio hienoistuvat.

Tärkein validointistrategia sisältää mallin tuotoksen vertaamisen havaittavissa olevaan tietoon. Jälleen, tietysti, tämä strategia on rajallinen useimmissa tapauksissa, joissa simulaatioita suoritetaan, koska havaittavissa olevaa tietoa on vähän. Mutta voidaan käyttää monimutkaisia strategioita, mukaan lukien simulaation osajärjestelmien tuotoksen vertaaminen merkityksellisiin kokeisiin (Parker, 2013; Oberkampf ja Roy 2010).

Vahvistamisen ja validoinnin käsitteet ovat saaneet kritiikkiä filosofilta. Oreskes et ai. Erittäin laajasti mainittu artikkeli 1994 suhtautui useimmiten kriittisesti terminologiaan, väittäen, että erityisesti”pätevyys” on ominaisuus, jota sovelletaan vain loogisiin väitteisiin ja että siksi termi, kun sitä käytetään malleissa, voi johtaa ylikäänteisiin.

Winsberg (2010, 2018, s. 155) on väittänyt, että varmennuksen ja validoinnin välinen käsitteellinen jako voi olla harhaanjohtava, jos otetaan huomioon, että on olemassa yksi joukko menetelmiä, jotka voivat itsessään osoittaa, että olemme ratkaisseet yhtälöt oikein, ja että on olemassa toinen joukko menetelmiä, jotka voivat sinänsä osoittaa, että meillä on oikeat yhtälöt. Hän väitti myös, että on harhaanjohtavaa ajatella, että simulaation epistemologia on jaettu puhtaasti empiiriseen osaan (verifiointi) ja matemaattiseen osaan (ja tietotekniikan osaan) (validointi). Mutta tämä harhaanjohtava ajatus seuraa usein todentamisen ja validoinnin keskustelua. Löydämme tämän sekä harjoittajien että filosofien työstä.

Tässä on ammattihenkilön Roy: n vakioviiva: “Verifikaatio käsittelee matematiikkaa ja osoittaa numeerisen ratkaisun oikeellisuuden tiettyyn malliin. Toisaalta validointi käsittelee fysiikkaa ja käsittelee mallin tarkoituksenmukaisuutta kokeellisen tiedon toistamisessa. Vahvistamisen voidaan ajatella ratkaisevan valitut yhtälöt oikein, kun taas validointi valitsee ensin oikeat yhtälöt”(Roy 2005).

Jotkut filosofit ovat asettaneet tämän eron toimimaan argumentteissa simulaation filosofisesta uutuudesta. Esittelimme tämän kysymyksen ensin osiossa 4.1, jossa Frigg ja Reiss väittivät, että simulaatiolla ei voisi olla epistemologisesti uusia ominaisuuksia, koska se sisälsi kaksi erillistä komponenttia: komponentin, joka on identtinen tavallisen mallinnuksen epistemologian kanssa, ja komponentin, joka on täysin matemaattinen.”Meidän pitäisi erottaa tässä kaksi luotettavuuden käsitettä, vastaamalla kahteen eri kysymykseen. Ensinnäkin, ovatko tietokoneen tarjoamat ratkaisut tarpeeksi lähellä todellisia (mutta joita ei ole käytettävissä) ratkaisuja, jotta ne olisivat hyödyllisiä?… Tämä on puhtaasti matemaattinen kysymys ja kuuluu äskettäin mainittujen ongelmaluokkien joukkoon. Joten, tässä ei ole mitään uutta filosofisesta näkökulmasta, ja kysymys on todellakin yksi numeronuristavista. Toinen,edustavatko simulaatioiden perustana olevat laskennalliset mallit tavoitejärjestelmää oikein? Eli ovatko simulaatiotulokset ulkoisesti päteviä? Tämä on vakava kysymys, mutta se on riippumaton ensimmäisestä ongelmasta, ja kysymys, joka nousee esiin yhtä lailla malleissa, joihin ei liity vaikeasti tehtävää matematiikkaa ja tavallisia kokeita”(Frigg ja Reiss 2009).

Mutta todentaminen ja validointi eivät ole tiukasti sanottuna niin puhtaasti erotettavissa. Tämä johtuu siitä, että useimmat validointimenetelmät ovat itsessään aivan liian heikkoja simulaation paikkansapitävyyden vahvistamiseksi. Ja suurin osa simuloinniksi valituista malliyhtälöistä eivät ole suorassa mielessä”oikeita yhtälöitä”; ne eivät ole malliyhtälöitä, jotka valitsisimme ihanteellisessa maailmassa. Meillä on hyvä syy ajatella toisin sanoen, että siellä on malliyhtälöitä, joille on abstraktisti parempi empiirinen tuki. Valitsemamme yhtälöt heijastavat usein kompromissia sen suhteen, mikä mielestämme kuvaa parhaiten ilmiöitä ja laskennallista vetokelpoisuutta. Joten valitut yhtälöt ovat harvoin hyvin "validoituja" yksinään. Jos haluamme ymmärtää, miksi simulaatiotulosten katsotaan olevan uskottavia,meidän on tarkasteltava simulaation epistemologiaa yhtenäisenä kokonaisuutena, ei niin puhtaasti jaettuna todentamiseen ja validointiin - kukin niistä yksinään näyttäisi riittämättömältä tehtävälle.

Joten yksi asia on, että todentaminen ja validointi eivät ole itsenäisesti onnistuneita ja erotettavissa olevia toimintoja. Mutta toinen kohta on, että ei ole kahta itsenäistä kokonaisuutta, joihin nämä toiminnot voidaan ohjata: malli, joka valitaan diskreisoitavaksi, ja menetelmä sen diskretoimiseksi. Kun ymmärretään, että”ratkaistavat” yhtälöt valitaan joskus diskretointivirheiden poistamiseksi jne. (Lenhard 2007 on erittäin hieno esimerkki tästä Arakawan operaattorin osallistumisesta), tätä myöhempää erotusta on vaikeampi ylläpitää. Joten menestys saavutetaan simuloinnissa eräänlaisella edestakaisin, kokeilu- ja virhevirheellä, mallin ja laskentamenetelmän välisellä palauttamisella. Ja kun näin on, on vaikea edes tietää, mitä tarkoittaa sanoa, että simulointi varmennetaan ja validoidaan erikseen.

Kukaan ei ole väittänyt, että V&V ei ole hyödyllinen erottelu, vaan pikemminkin, että tutkijoiden ei pitäisi liiaksi lisätä käytännöllisesti hyödyllistä erottelua puhtaaseksi metodologiseksi saneluksi, joka vääristää omien käytäntöjensä sotkuisuutta. Toisaalta Friggin ja Reissin väite epistemologisen uutuuden puuttumisesta simulaatiossa epäonnistuu juuri tästä syystä. Kyse ei ole”puhtaasti matemaattisesta kysymyksestä” siitä, ovatko tietokoneen tarjoamat ratkaisut riittävän lähellä todellisia (mutta joita ei ole saatavana) ratkaisuihin hyödyllisiksi. Ainakaan ei tässä suhteessa: kysymykseen ei voida vastata käytännöllisenä asiana, täysin käyttämällä matemaattisia menetelmiä. Ja siksi se on empiirinen / epistemologinen kysymys, jota ei esiinny tavanomaisessa mallinnuksessa.

4.4 EOCS ja episteminen oikeus

Tavallisen (tiedefilosofian ulkopuolella olevan) epistemologian tärkein osa on korostaa sitä astetta, jonka mukaan tiedon mahdollisuuden ehtona on, että luotamme aisteihimme ja muiden ihmisten todistuksiin tavalla, jota emme voi itse perustella.. Tyler Burgen (1993, 1998) mukaan usko näiden kahden prosessin tuloksiin on perusteltua, mutta ei perusteltua. Pikemminkin Burgen mukaan meillä on oikeus näihin uskomuksiin.”Heillä on oikeus vedota muihin asioihin tasa-arvoisesti havaitsemiseen, muistiin, deduktiivisiin ja induktiivisiin päättelyihin ja… muiden sanoihin” (1993, s. 458). Uskomukset, joihin uskovalla on oikeus, ovat sellaisia, joita uskovan käytettävissä olevilla todisteilla ei tueta, mutta joiden uskottavuus on kuitenkin perusteltua.

Jotkut EOCS-tutkimustyöt ovat kehittäneet analogioita tietokoneen simuloinnin ja Burge-ohjelmaan liittyvien tiedon tuottamistapojen välillä. (Ks. Erityisesti Barberousse ja Vorms, 2014 ja Beisbart, 2017.) Tämä on tietyllä tavalla luonnollinen Burgen väitteiden kasvu, jonka mukaan tarkastelemme tietokoneavusteisia todisteita tällä tavalla (1998). Tietokonesimulaatiot ovat erittäin monimutkaisia, usein tulosta monimuotoisten tiedemiesten ja muiden asiantuntijoiden episteemisestä työstä, ja mikä tärkeintä, episteemisesti läpinäkymätön (Humphreys, 2004). Näiden ominaisuuksien takia Beisbart väittää, että on kohtuullista kohdella tietokonesimulaatioita samalla tavalla kuin kohtelemme aistejamme ja muiden todistusta: yksinkertaisesti asioina, joihin voidaan luottaa olettaen, että kaikki toimii sujuvasti. (Beisbart, 2017).

Symons ja Alvarado (2019) väittävät, että tällä lähestymistavalla EOCS: ään on perustavanlaatuinen ongelma, ja se liittyy tietokoneavusteisiin todisteisiin, jotka olivat tärkeitä Burgen alkuperäisen kirjan kannalta: "läpinäkyvä kuljetin".”On erittäin tärkeää huomata esimerkiksi, että Burgen selvitys sisällön säilyttämisestä ja läpinäkyvästä välittämisestä edellyttää, että vastaanottajalla on jo syytä epäillä lähdettä” (s. 13). Mutta Symons ja Alvarado viittaavat moniin tietokonesimulaatioiden ominaisuuksiin (piirustus Winsberg 2010 ja Ruphy 2015), joiden vuoksi heillä ei ole näitä ominaisuuksia. Lenhard ja Küster 2019 ovat merkityksellisiä myös tässä,koska he väittävät, että tietokoneistosimulaatiossa on monia piirteitä, jotka vaikeuttavat niiden toistamista ja jotka siksi heikentävät joitain vakausvaatimuksia, joita heiltä vaaditaan avoimiksi kuljettimiksi. Näistä syistä ja muista, jotka liittyvät moniin kohdissa 4.2 ja 4.3 käsiteltyihin ominaisuuksiin, Symons ja Alvarado väittävät, että on epätodennäköistä, että meidän tulisi pitää tietokoneen simulointia episteemisenä peruskäytännönä samalla tavalla kuin aistien havaitseminen, muisti, todistus tai samanlainen.

4.5 Käytännön lähestymistavat EOCS: ään

Toinen lähestymistapa EOCS: iin on sen pohjaaminen mallintamisen ja simuloinnin aluksen käytännön näkökohtiin. Tämän näkemyksen mukaan, toisin sanoen, paras tapa, jonka voimme antaa syistä, joiden vuoksi uskomme tietokone simulaatiotutkimuksen tuloksiin, on luottamus niitä käyttävien mallineiden käytännön taitoihin ja käsityötaitoihin. Hyvä esimerkki tällaisesta tilistä on (Hubig ja Kaminski, 2017). Tämän tyyppisen työn epistemologinen tavoite on tunnistaa simulaatioiden luottamuksen sijainti mallinnuksen ja simulaation aluksen käytännön näkökohdissa eikä itse mallien ominaisuuksissa. (Resch ym., 2017) väittävät, että hyvä osa syytä siihen, että meidän pitäisi luottaa simulaatioihin, ei johdu itse simulaatioista,mutta niiden tulkitsevan taiteellisuuden takia, jotka käyttävät taidettaan ja taitojaan tulkita simulointituloksia. Symons ja Alvarado (2019) suhtautuvat myös kriittisesti tähän lähestymistapaan ja väittävät, että”Tietokonesimulaation epistemologian tehtävänä on selittää nykyajan tutkijan aseman ero suhteessa episteemisesti läpinäkymättömiin tietokoneimulaatioihin..” (s. 7)) ja uskovat mekaanisen oraakkelin suhteeseen oraakkeihinsa. Pragmaattiset ja episteemiset näkökohdat Symonsin ja Alvaradon mukaan ovat olemassa samanaikaisesti, eivätkä he ole mahdollisia kilpailijoita simulointien luottamuksen oikealle selittämiselle - episteemiset syyt ovat perimmäiset, jotka selittävät ja perustelevat käytännölliset näkökohdat.väittäen, että”osa tietokoneen simuloinnin epistemologian tehtävää on selittää ero nykyajan tutkijan aseman suhteessa episteemisesti läpinäkymättömiin tietokoneisiin simulaatioihin..” (s. 7) ja uskovien mekaanisen oraakalin suhteeseen heidän oraakkeihinsa. Pragmaattiset ja episteemiset näkökohdat Symonsin ja Alvaradon mukaan ovat olemassa samanaikaisesti, eivätkä he ole mahdollisia kilpailijoita simulointien luottamuksen oikealle selittämiselle - episteemiset syyt ovat perimmäiset, jotka selittävät ja perustelevat käytännölliset näkökohdat.väittäen, että”osa tietokoneen simuloinnin epistemologian tehtävää on selittää ero nykyajan tutkijan aseman suhteessa episteemisesti läpinäkymättömiin tietokoneisiin simulaatioihin..” (s. 7) ja uskovien mekaanisen oraakalin suhteeseen heidän oraakkeihinsa. Pragmaattiset ja episteemiset näkökohdat Symonsin ja Alvaradon mukaan ovat olemassa samanaikaisesti, eivätkä he ole mahdollisia kilpailijoita simulointien luottamuksen oikealle selittämiselle - episteemiset syyt ovat perimmäiset, jotka selittävät ja perustelevat käytännölliset näkökohdat.eivätkä he ole mahdollisia kilpailijoita oikean selityksen vuoksi luottamuksellemme simulaatioihin - episteemiset syyt ovat perimmäiset, jotka selittävät ja perustelevat käytännölliset syyt.eivätkä he ole mahdollisia kilpailijoita oikean selityksen vuoksi luottamuksellemme simulaatioihin - episteemiset syyt ovat perimmäiset, jotka selittävät ja perustelevat käytännölliset syyt.

5. Simulointi ja kokeilu

Työskentelevät tutkijat kuvaavat joskus simulaatiotutkimuksia kokeellisesti. Yhteys simulaation ja kokeilun välillä luultavasti juontaa juurensa siihen asti, kun von Neumann, joka kannatti hyvin varhaisessa vaiheessa tietokoneiden käyttöä fysiikassa, huomautti, että monia vaikeita kokeita oli tehtävä vain sellaisten tosiasioiden selvittämiseksi, joiden pitäisi periaatteessa olla johdettavissa teoriasta. Kun von Neumannin visiosta tuli totta, ja jotkut näistä kokeista alkoivat korvata simulaatioilla, tuli jonkin verran luonnollista nähdä ne kokeilun versioina. Edustava kohta löytyy suositusta simulaatiokirjasta:

Simulointi, joka jäljittelee tarkasti monimutkaista ilmiötä, sisältää runsaasti tietoa kyseisestä ilmiöstä. Supertietokone arvioi muuttujia, kuten lämpötila, paine, kosteus ja tuulen nopeus tuhansissa pisteissä, koska se simuloi esimerkiksi myrskyn kehittymistä. Tällaiset tiedot, jotka ylittävät paljon kaikkea mitä voitaisiin saada ilmapallolaivaston käynnistämisestä, paljastavat läheiset yksityiskohdat myrskypilvessä tapahtuvasta. (Kaufmann ja Smarr 1993, 4)

Ajatus”in silico” -kokeilusta tulee vielä uskottavammaksi, kun simulaatiotutkimuksen tarkoituksena on oppia, mitä järjestelmälle tapahtuu erilaisten mahdollisten interventioiden seurauksena: Mitä tapahtuisi globaalille ilmastolle, jos ilmakehään lisätään x määrä hiiltä ? Mitä tapahtuu tälle lentokoneen siipille, jos se altistuu sellaiselle rasitukselle? Kuinka liikennemallit muuttuisivat, jos tähän kohtaan lisätään raitiovaunu?

Tämän seurauksena filosofit ovat alkaneet pohtia, missä määrin tietokone simulaatiot ovat kuin kokeita ja missä mielessä ne eroavat toisistaan. Aiheeseen liittyvä kysymys on kysymys siitä, milloin prosessi, johon perusteellisesti sisältyy tietokoneen simulointi, voidaan laskea mittaukseksi (Parker, 2017). Kirjallisuuteen on syntynyt joukko näkemyksiä, joiden keskittyminen on kahden opinnäytetyön puolustaminen ja kritisointi:

Identiteettityö. Tietokonesimulaatiotutkimukset ovat kirjaimellisesti kokeiden esimerkkejä.

Epistemologinen riippuvuustutkimus. Identiteettityö olisi (jos se olisi totta) hyvä syy (heikko versio) tai paras syy (vahvempi versio) tai ainoa syy (vahvin versio; se on välttämätön ehto) uskoaan, että simulaatiot voivat tarjota optioita usko hypoteeseihin, joita ne tukevat. Vahvinta versiota on, että vain jos identiteettityö on totta, on syytä uskoa, että simulaatiot voivat antaa perusteen uskoa hypoteeseihin.

Epistemologisen riippuvuusprosessin keskeinen ajatus on, että kokeet ovat kanonisia kokonaisuuksia, joilla on keskeinen rooli uskomme tieteellisiin hypoteeseihin perustelemiseen, ja että siksi on syytä ajatella, että simulaatioiden voi olla merkitystä tällaisten uskomusten perustelemisessa. riippuu siitä, missä määrin ne voidaan tunnistaa eräänlaiseksi kokeeksi.

Identiteettitutkimuksen puolustajia voi löytää jo Humphreys 1995 ja Hughes 1999. Ja Hughesin epistemologisen riippuvuuden tutkimuksen (vahvemmalle) versiolle on ainakin implisiittinen tuki. Varhaisin nimenomainen argumentti epistemologisen riippuvuuden tutkielman hyväksi on kuitenkin Nortonissa ja Suppe 2001. Nortonin ja Suppen mukaan simulaatiot voivat taata uskomuksen juuri siksi, että ne ovat kirjaimellisesti kokeiluja. Heillä on yksityiskohtainen tarina kertoa, missä mielessä he ovat kokeiluja ja kuinka tämän kaikkien on tarkoitus toimia. Nortonin ja Suppen mukaan pätevä simulaatio on sellainen, jossa tietyt muodolliset suhteet (mitä he kutsuvat 'toteutukseksi') ovat pohjamallin, itse mallinnetun fyysisen järjestelmän ja algoritmia käyttävän tietokoneen välillä. Kun oikeat ehdot täyttyvät,'simulaatiota voidaan käyttää välineenä reaalimaailman ilmiöiden tutkimiseksi tai havaitsemiseksi. Empiiristä tietoa todellisista ilmiöistä tuotetaan kokeellisen kontrollin olosuhteissa”(s. 73).

Yksi ongelma tässä tarinassa on, että heidän asettamansa muodolliset ehdot ovat aivan liian tiukat. On epätodennäköistä, että on olemassa hyvin monia todellisia esimerkkejä tietokoneiden simulaatioista, jotka täyttävät tiukat standardinsa. Simulointi on melkein aina paljon idealisoivampi ja lähentävämpi yritys. Joten, jos simulaatiot ovat kokeiluja, se ei todennäköisesti ole siinä muodossa kuin Norton ja Suppe kuvittelivat.

Yleisemmin identiteettityö on saanut tulta muilta alueilta.

Gilbert ja Troitzsch väittivät, että”suurimpana erona on se, että kokeessa valvotaan todellista mielenkiintoista kohdetta (esimerkiksi kemiakokeessa tutkittavat kemikaalit), simulaatiossa kokeillaan pikemminkin kuin itse ilmiö.” (Gilbert ja Troitzsch 1999, 13). Mutta tämä ei tunnu oikealta. Monet (Guala 2002, 2008, Morgan 2003, Parker 2009a, Winsberg 2009a) ovat huomauttaneet kanteen ongelmista. Jos Gilbert ja Troitzsch tarkoittavat, että simulaattorit manipuloivat malleja abstraktien esineiden merkityksessä, niin väitettä on vaikea ymmärtää - kuinka manipuloimme abstraktia kokonaisuutta? Jos toisaalta he tarkoittavat vain osoittavan tosiasiaan, että fyysinen esine, jota simulaattorit manipuloivat - digitaalinen tietokone - ei ole todellinen kiinnostava kohde,sitten ei ole selvää, miksi tämä eroaa tavallisista kokeista.

On väärin, että oikeat kokeilut manipuloivat aina tarkalleen kiinnostavia kohteitaan. Itse asiassa sekä todellisissa kokeissa että simulaatioissa on monimutkainen suhde toisaalta tutkimuksessa manipuloidun ja toisaalta tutkimuksen kohteina olevien reaalimaailman järjestelmien välillä. Siksi sekä kokeen että simulaation tapauksessa on syytä tutkia jonkin aineen väitettä tutkimuksen 'ulkoisen pätevyyden' määrittämiseksi - jotta voidaan todeta, että manipuloitavasta järjestelmästä opitut voidaan soveltaa kiinnostuksen kohteena olevaan järjestelmään. Esimerkiksi Mendel manipuloi hernekasveja, mutta hän oli kiinnostunut oppimaan yleensä periytyvyyden ilmiöstä. Ajatus malli-organismista biologiassa tekee tästä ajatuksesta houkuttelevan. Kokeilemme Caenorhabditis elegansseja, koska olemme kiinnostuneita ymmärtämään kuinka organismi yleensä käyttää geenejä kehityksen ja sukututkimuksen hallitsemiseksi. Kokeilemme Drosophila melanogasteria, koska se tarjoaa hyödyllisen mallin mutaatioista ja geneettisestä perinnöstä. Mutta ajatus ei rajoitu biologiaan. Galileo kokeili kaltevia lentokoneita, koska hän oli kiinnostunut siitä, kuinka esineet putoavat ja miten ne käyttäytyvät ilman häiriöitä aiheuttavia voimia-ilmiöitä, joita kaltevat tasokokeet eivät edes todellisuudessa toteutuneet. Galileo kokeili kaltevia lentokoneita, koska hän oli kiinnostunut siitä, kuinka esineet putoavat ja miten ne käyttäytyvät ilman häiriöitä aiheuttavia voimia-ilmiöitä, joita kaltevat tasokokeet eivät edes todellisuudessa toteutuneet. Galileo kokeili kaltevia lentokoneita, koska hän oli kiinnostunut siitä, kuinka esineet putoavat ja miten ne käyttäytyvät ilman häiriöitä aiheuttavia voimia-ilmiöitä, joita kaltevat tasokokeet eivät edes todellisuudessa toteutuneet.

Tätä kokeilua koskevaa näkemystä ei tietenkään ole kiistatonta. On totta, että melko usein kokeilijat päättelevät jotain järjestelmästä, joka eroaa järjestelmästä, jota he häiritsevät. Ei kuitenkaan ole selvää, onko tämä päätelmä oikea osa alkuperäistä koetta. Peschard (2010) arvostelee näitä linjoja, ja siksi sitä voidaan pitää Gilbertin ja Troitzschin puolustajana. Peschard väittää, että heidän kriitikkojensa perusoletus - että kokeilussa, samoin kuin simulaatiossa, manipuloidaan tavoitejärjestelmän puolesta seisovaan järjestelmään - on sekoitettu. Peschard väittää, että se sekoittaa kokeen episteemisen kohteen sen episteemisen motivaation kanssa. Hän väittää, että vaikka episteeminen motivaatio kokeilla C. elegansia saattaa olla melko kauaskantoinen,tällaisen kokeen oikea episteeminen kohde on itse mato. Peschardin mukaan simulaatiossa episteeminen kohde ei ole koskaan itse digitaalinen tietokone. Siten simulaatio eroaa hänen mukaansa kokeesta siinä mielessä, että sen episteeminen kohde (toisin kuin pelkästään sen episteeminen motivaatio) on erillinen manipuloitavasta objektista. Roushia (2017) voidaan pitää myös Gilbertin ja Troitzsch-linjan puolustajana, mutta Roush vetoaa luonnollisen samanlaisuuteen tärkeänä ominaisuutena, joka erottaa kokeilut ja simulaatiot. Muita identiteettityön vastustajia ovat Giere (2009) ja Beisbart ja Norton (2012, Other Internet Resources).siinä, että sen episteeminen kohde (toisin kuin pelkästään sen episteeminen motivaatio) on erillinen manipuloitavasta esineestä. Roushia (2017) voidaan pitää myös Gilbertin ja Troitzsch-linjan puolustajana, mutta Roush vetoaa luonnollisen samanlaisuuteen tärkeänä ominaisuutena, joka erottaa kokeilut ja simulaatiot. Muita identiteettityön vastustajia ovat Giere (2009) ja Beisbart ja Norton (2012, Other Internet Resources).siinä, että sen episteeminen kohde (toisin kuin pelkästään sen episteeminen motivaatio) on erillinen manipuloitavasta esineestä. Roushia (2017) voidaan pitää myös Gilbertin ja Troitzsch-linjan puolustajana, mutta Roush vetoaa luonnollisen samanlaisuuteen tärkeänä ominaisuutena, joka erottaa kokeilut ja simulaatiot. Muita identiteettityön vastustajia ovat Giere (2009) ja Beisbart ja Norton (2012, Other Internet Resources). Muut Internet-resurssit). Muut Internet-resurssit).

Ei ole selvää, kuinka tämä riita ratkaistaan, ja se näyttää kääntyvän ensisijaisesti painotuseron ympärille. Voidaan korostaa kokeilun ja simulaation eroa Gilbertin, Troitzschin ja Peschardin seuraamiseksi, vaatimalla, että kokeet opettavat meille ensin heidän episteemiset tavoitteensa ja vain toissijaisesti sallivat päätelmät muiden järjestelmien käyttäytymisestä. (Toisin sanoen matoja koskevat kokeet opettavat meille ensinnäkin matoja, ja vain toissijaisesti antavat meille mahdollisuuden päätellä geneettisestä torjunnasta yleisemmin.) Tämä tekisi niistä käsitteellisesti erilaisia kuin tietokonesimulaatiot, joiden ei uskota opettavan meitä, ensinnäkin tietokoneiden käyttäytymisestä ja vain toisessa vaiheessa myrskyistä, galakseista tai muusta.

Tai voidaan korostaa samankaltaisuutta päinvastaisella tavalla. Voidaan korostaa, missä määrin kokeelliset kohteet valitaan aina korvikkeiksi siitä, mikä todella kiinnostaa. Morrison, 2009 on luultavasti voimakkain puolustaja korostaen tätä näkökohtaa kokeilun ja simulaation samankaltaisuudessa. Hän väittää, että suurin osa kokeellisista käytännöistä ja useimmat mittauskäytännöt sisältävät samoja mallintamiskäytäntöjä kuin simulaatiot. Joka tapauksessa vauhti Peschard, ei muuta kuin keskustelu nimikkeistöstä - ja ehkä vetoomus tutkijoiden tavanomaiseen kielenkäyttöön; ei aina kaikkein vakuuttavin väite - estäisi meitä sanomasta, että myrskyn simulaation episteeminen kohde on tietokone ja että myrsky on vain episteeminen motivaatio tutkia tietokonetta.

Olkoon niin, monet simulaatiofilosofit, mukaan lukien tässä osassa käsitellyt, ovat valinneet jälkimmäisen polun - osittain tapana kiinnittää huomiota tapoihin, joilla Gilbertin ja Troitzschin lainaaman väitteen takana piilevä viesti maalaa liian yksinkertaistetun kuvan koe. Vaikuttaa liian yksinkertaiselta maalata kuva, jonka mukaan kokeilu saa suoran otteen maailmaan, kun taas simulaation tilanne on täysin päinvastainen. Ja tämän kuvan näyttää saavan Gilberin ja Troitzschin tarjouksesta. Peschardin hienostuneempi kuva, jossa ero tehdään episteemisten kohteiden ja episteemisten motivaatioiden välillä, menee pitkälle kohti näiden huolenaiheiden tasoittamista ajamatta meitä ajattelemaan, että simulaatio ja kokeilu ovat tältä osin samoja.

Siitä huolimatta, että hylättiin Gilbertin ja Troitzschin luonnehdinta simulaation ja kokeen välisestä erotuksesta, Guala ja Morgan molemmat hylkäsivät identiteettitutkimuksen. Simon (1969) työhön vedoten Guala väittää, että simulaatiot eroavat pohjimmiltaan kokeista siinä, että kokeilun manipulointikohteella on olennainen samankaltaisuus kiinnostuksen kohteena olevan kohteen kanssa, mutta simulaatiossa kohteen ja kohteen välinen samankaltaisuus on vain muodollinen. Mielenkiintoista on, että vaikka Morgan hyväksyy tämän väitteen identiteettityötä vastaan, hän näyttää pitävän versiota epistemologisesta riippuvuusprosessista. Hän väittää toisin sanoen,että Gualan tunnistamien kokeiden ja simulaatioiden välinen ero viittaa siihen, että simulaatiot ovat epistemologisesti alempia kuin todelliset kokeet - että niillä on luonnostaan vähemmän voimaa oikeuttaa usko todelliseen maailmaan liittyviin hypoteeseihin, koska ne eivät ole kokeiluja.

Simulaatioiden episteemisen voiman puolustaminen Morganin (2002) väitteitä vastaan voisi tulla identiteettitutkimuksen puolustamisen muodossa tai epistemologisen riippuvuuden tutkielman hylkäämisen muodossa. Entisellä rintamalla näyttää olevan kaksi ongelmaa Gualan (2002) identiteettityön vastaisen väitteen kanssa. Ensimmäinen on, että aineellisen samankaltaisuuden käsite on tässä liian heikko, ja toinen on se, että pelkkä muodollinen samankaltaisuus on liian epämääräinen vaaditun työn suorittamiseksi. Harkitse esimerkiksi sitä, että tekniikan tieteissä ei ole harvinaista käyttää simulointimenetelmiä piistä valmistettujen järjestelmien käyttäytymisen tutkimiseksi. Insinööri haluaa oppia piilaitteen erilaisten suunnittelumahdollisuuksien ominaisuuksista,joten hän kehittää laskennallisen laitteen mallin ja simuloi sen käyttäytymistä digitaalisella tietokoneella. Tietokoneen keskusprosessorin ja tutkittavan piilaitteen välillä on syviä materiaalien samankaltaisuuksia, ja jotkut samoista aineellisista syistä ovat töissä. Gualan päättelyssä tämän pitäisi merkitä tämä esimerkiksi todellisesta kokeilusta, mutta se näyttää väärin. Tämän esimerkin erityispiirteet kuvaavat ongelmaa melko selvästi, mutta ongelma on itse asiassa melko yleinen: kaikilla kahdella järjestelmällä on joitain olennaisia samankaltaisuuksia toisiinsa ja joitain eroja. Tämän pitäisi merkitä tämä esimerkiksi todellisesta kokeilusta, mutta se näyttää väärin. Tämän esimerkin erityispiirteet kuvaavat ongelmaa melko selvästi, mutta ongelma on itse asiassa melko yleinen: kaikilla kahdella järjestelmällä on joitain olennaisia samankaltaisuuksia toisiinsa ja joitain eroja. Tämän pitäisi merkitä tämä esimerkiksi todellisesta kokeilusta, mutta se näyttää väärin. Tämän esimerkin erityispiirteet kuvaavat ongelmaa melko selvästi, mutta ongelma on itse asiassa melko yleinen: kaikilla kahdella järjestelmällä on joitain olennaisia samankaltaisuuksia toisiinsa ja joitain eroja.

Parke (2014) kiistää epistemologista riippuvuusprosessia vahingoittamalla kahta oletetta, jotka hänen mielestään tukevat sitä: nyrkki, että kokeet tuottavat suuremman päättelyvoiman kuin simulaatiot, ja toiseksi, että simulaatiot eivät voi yllättää meitä samalla tavalla kuin kokeet voivat.

Kääntöpuolella ajatus siitä, että muodollisen samankaltaisuuden olemassaolo kahden materiaalisen kokonaisuuden välillä voisi merkitä jotain mielenkiintoista, on käsitteellisesti sekoitettu. Kun otetaan huomioon mikä tahansa kaksi riittävän monimutkaista kokonaisuutta, on olemassa monia tapoja, joilla ne ovat muodollisesti identtisiä, puhumattakaan samanlaisista. On myös tapoja, joilla ne ovat muodollisesti täysin erilaisia. Nyt voimme puhua löysästi ja sanoa, että kahdella asialla on muodollinen samankaltaisuus, mutta oikeasti tarkoitamme, että parhaimmissa muodollisissa esityksissämme kahdesta kokonaisuudesta on muodollisia samankaltaisuuksia. Joka tapauksessa näyttää siltä olevan hyviä syitä hylätä sekä Gilbert ja Troitzsch että Morgan ja Guala perusteet kokeiden ja simulaatioiden erottamiselle.

Palaamalla simulaatioiden episteemisen voiman puolustamiseen on myös perusteita epistemologisen riippuvuuden tutkimuksen hylkäämiselle. Kuten Parker (2009a) huomauttaa, meillä voi olla sekä kokeilussa että simuloinnissa olennaisia yhtäläisyyksiä tietokoneen simulaatioiden ja kohdejärjestelmien välillä, ja sillä on merkitystä. Kun asiaankuuluva taustatieto on paikoillaan, simulointi voi tarjota luotettavamman tiedon järjestelmästä kuin kokeilun. Aurinkokunnan tietokonesimulointi, joka perustuu taivaallisen dynamiikan kehittyneimpiin malleihimme, tuottaa paremmin planeettojen kiertoradat kuin mikään koe.

Parke (2014) kiistää epistemologista riippuvuusprosessia vahingoittamalla kahta oletetta, jotka hänen mielestään tukevat sitä: nyrkki, että kokeet tuottavat suuremman päättelyvoiman kuin simulaatiot, ja toiseksi, että simulaatiot eivät voi yllättää meitä samalla tavalla kuin kokeet voivat. Väite, jonka mukaan simulaatiot eivät voi yllättää meitä, on peräisin Morganilta (2005). Parke väittää Pace Morganin, että simulaattorit ovat usein yllättyneitä simulaatioistaan, koska ne eivät ole laskennallisesti tietoisia ja koska ne eivät aina ole käyttämiensä mallien ja koodien luojat. Hän väittää lisäksi, että "jos tutkijan episteemisissä tiloissa esiintyvät yksinään näyttävät olevan väärät perusteet seurata eroa kokeiden ja simulaatioiden välillä" (258). Adrian Curry (2017) puolustaa Morganin alkuperäistä intuitiota tekemällä kaksi ystävällistä muutosta. Hän väittää, että ero Morganilla oli todellakin kahden erityyppisen yllätyksen välillä, ja etenkin siitä, mistä yllätyksen lähde on: yllätys, joka johtuu teoreettisen tiedon saattamisesta kosketukseen maailman kanssa, on erottamiskykyinen kokeilu. Hän määrittelee myös yllätyksen tarkemmin ei-psykologisella tavalla siten, että se on”laatu, jonka saavuttaminen muodostaa todellisen episteemisen etenemisen” (s. 640).

6. Tietokonesimulointi ja tieteellisten teorioiden rakenne

Paul Humphreys (2004) on väittänyt, että tietokonesimulaatioilla on syvällinen vaikutus ymmärrykseen teorioiden rakenteesta; hän väittää, että ne paljastavat puutteita sekä tieteellisten teorioiden semanttisen että syntaktisen näkemyksen kanssa. Tämä vaatimus on saanut aikaan terävän tulen Roman Friggiltä ja Julian Reissiltä (2009). Frigg ja Reiss väittävät, että sillä, hyväksyykö malli analyyttisen ratkaisun vai ei, ei ole merkitystä sen suhteessa maailmaan. He käyttävät tätä kaksoisheilurin esimerkillä. Sillä, pidetäänkö heilurin sisäistä tukipistettä kiinteänä (tosiasia, joka määrää, onko asianomainen malli analyyttisesti ratkaistavissa), ei ole vaikutusta mallin elementtien semantiikkaan. Tämän perusteella he päättelevät, että mallin semantiikkaan tai sen suhteeseen maailmaan ei vaikuta se, onko malli analyyttisesti ratkaistavissa vai ei.

Tämä ei kuitenkaan reagoinut Humphreysin osoittaman hyväntekeväisyyslukemiseen. Teorioiden syntaktiset ja semanttiset näkemykset eivät loppujen lopuksi ole vain kertomuksia siitä, kuinka abstraktit tieteelliset esityksemme liittyvät maailmaan. Tarkemmin sanottuna, ne eivät olleet tarinoita tiettyjen mallien ja maailman välisestä suhteesta, vaan pikemminkin teorioiden ja maailman välisestä suhteesta ja mahdollisesta roolista, jota mallit tässä suhteessa toivat.

Ne olivat myös tarinoita, joilla oli paljon sanottavaa siitä, missä filosofisesti mielenkiintoinen toiminta on tieteellisen teoretisoinnin yhteydessä. Syntaktinen näkemys ehdotti, että tieteellinen käytäntö voitaisiin rekonstruoida riittävästi rationaalisesti ajattelemalla teorioita aksiomaattisina järjestelminä, ja mikä vielä tärkeämpää, että looginen päätelmä oli hyödyllinen sääntelevä ideaali ajatellessasi, miten teoriasta maailmaan tehdään päätelmiä. Syntaktinen näkemys myös laiminlyönnistä teki melko selväksi, että mallinnuksella oli, jos jotain, vain heuristinen rooli tieteessä. (Tämä oli piirre teoreettisten näkökulmien teorioissa, joita Frederick Suppe, yksi sen kiihkeimmistä kriitikoista, usein raivasi.) Teorioilla itsellään ei ollut mitään tekemistä mallien kanssa, ja teorioita voitiin verrata suoraan maailmaan ilman merkittävää roolia. mallinnusta varten.

Teorioiden semanttinen näkemys puolestaan korosti mallien tärkeätä roolia, mutta painotti myös, että teoriat olivat ei-kielellisiä kokonaisuuksia. Se kehotti filosofeja olemaan kiinnittämättä huomiota erityisen kielellisen ilmaisumuodon tilanteisiin, joita teoria löytyy esimerkiksi tietystä oppikirjasta.

Tietokonesimulaatiot näyttävät kuitenkin osoittavan, että molemmat teemat olivat väärässä. Oli täysin väärin ajatella, että looginen päätelmä oli oikea työkalu teoriasovelluksen prosessin rationaaliseen uudelleenrakentamiseen. Tietokonesimulaatiot osoittavat, että on olemassa teoriasovellusmenetelmiä, jotka ylittävät huomattavasti loogisen päätelmän päättelyvoiman. Esimerkiksi nesteteoriasta loogisella päätelmällä saatavissa oleva ratkaisujen tila on mikroskooppinen verrattuna sovellusalueeseen, jota voidaan tutkia tietokonesimulaation avulla. Kääntöpuolella tietokonesimulaatiot näyttävät paljastavan, että syntaksilla on merkitystä, kuten Humphreys (2004) on kehottanut. On väärässä osoittaa, kuten semanttinen näkemys teki, että erityinen kielellinen muoto, jossa tieteellinen teoria ilmaistaan, on filosofisesti mielenkiintoinen. Teorian ilmaisun syntaksilla tulee olemaan syvä vaikutus siihen, mitä päätelmiä siitä voidaan tehdä, millaiset idealisoinnit toimivat hyvin sen kanssa jne. Humphreys painottaa seuraavaa:”Käytetty erityinen syntaattinen esitys on usein ratkaisevan tärkeä tekijä. teorian yhtälöiden ratkaistavuus”(Humphreys 2009, s. 620). Nesteiden teoriaa voidaan käyttää tämän asian korostamiseen: Se, ilmaisemmeko tämän teorian Eulerian vai Lagrangian muodossa, vaikuttaa syvästi siihen, mitä käytännössä voimme laskea ja miten; se vaikuttaa siihen, mitkä idealisoinnit, likiarvot ja laskentatekniikat ovat tehokkaita ja luotettavia missä tilanteessa. Joten atk-simuloinnin epistemologian on oltava herkkä teorian tietylle syntaktiselle formulaatiolle ja kuinka hyvin kyseinen formulaatio on valtuutettu. Siten,vaikuttaa oikealta korostaa, kuten Humphreys (2004) teki, että atk-simulaatiot ovat paljastaneet puutteita sekä syntaktiikan että semanttisen teorian suhteen.

7. Nousu

Paul Humphreys (2004) ja Mark Bedau (1997, 2011) ovat väittäneet, että syntymisen aiheesta kiinnostuneet filosofit voivat oppia paljon tutkimalla tietokoneen simulointia. Aiheesta kiinnostuneiden filosofien tulisi lukea esiin nousevia ominaisuuksia käsittelevä kohta, jossa on keskusteltu kaikkien näiden filosofien panoksista.

Bedaun artikkeli kenties parhaiten yhteyden syntymisen ja simuloinnin välillä (2011). Bedau väitti, että minkä tahansa syntymäkäsityksen on vastattava kahta tunnusmerkkiä selitettäessä, kuinka kokonaisuus riippuu sen osista ja kuinka kokonaisuus on riippumaton osistaan. Hän väittää, että filosofit keskittyvät usein siihen, mitä hän kutsuu”vahvaksi” esiintuomiseksi, mikä asettaa raa'an alaspäin aiheuttavan syy-yhteyden, joka on periaatteessa peruuttamaton. Mutta hän väittää, että tämä on virhe. Sen sijaan hän keskittyy niin kutsuttuun heikkoon esiintymiseen, joka sallii kokonaisuuden vähentämisen osiin periaatteessa, mutta ei käytännössä. Järjestelmät, jotka tuottavat esiin nousevia ominaisuuksia, ovat pelkkiä mekanismeja, mutta mekanismit ovat hyvin monimutkaisia (niillä on hyvin monia itsenäisesti vuorovaikutuksessa olevia osia). Tuloksena,Ei ole mitään keinoa selvittää tarkalleen mitä tapahtuu tietyille lähtö- ja rajaehdoille, paitsi”indeksoida syy-verkko”. Juuri tässä syntyy yhteys tietokoneen simulointiin. Heikosti syntyvät ominaisuudet ovat ominaisia monimutkaisille järjestelmille luonteeltaan. Ja monimutkaisille tietokonesimulaatioille on ominaista myös se, että ei voida mitenkään ennustaa, mitä he tekevät, paitsi antaa heidän ajaa. Heikko esiintyminen selittää Bedaun mukaan miksi tietokonesimulaatioilla on keskeinen rooli monimutkaisten järjestelmien tieteessä. Paras tapa ymmärtää ja ennustaa todellisten monimutkaisten järjestelmien käyttäytymistä on simuloida niitä indeksoimalla mikro-syy-verkko ja nähdä mitä tapahtuu. Heikosti syntyvät ominaisuudet ovat ominaisia monimutkaisille järjestelmille luonteeltaan. Ja monimutkaisille tietokonesimulaatioille on ominaista myös se, että ei voida mitenkään ennustaa, mitä he tekevät, paitsi antaa heidän ajaa. Heikko esiintyminen selittää Bedaun mukaan miksi tietokonesimulaatioilla on keskeinen rooli monimutkaisten järjestelmien tieteessä. Paras tapa ymmärtää ja ennustaa todellisten monimutkaisten järjestelmien käyttäytymistä on simuloida niitä indeksoimalla mikro-syy-verkko ja nähdä mitä tapahtuu. Heikosti syntyvät ominaisuudet ovat ominaisia monimutkaisille järjestelmille luonteeltaan. Ja monimutkaisille tietokonesimulaatioille on ominaista myös se, että ei voida mitenkään ennustaa, mitä he tekevät, paitsi antaa heidän ajaa. Heikko esiintyminen selittää Bedaun mukaan miksi tietokonesimulaatioilla on keskeinen rooli monimutkaisten järjestelmien tieteessä. Paras tapa ymmärtää ja ennustaa todellisten monimutkaisten järjestelmien käyttäytymistä on simuloida niitä indeksoimalla mikro-syy-verkko ja nähdä mitä tapahtuu. Paras tapa ymmärtää ja ennustaa todellisten monimutkaisten järjestelmien käyttäytymistä on simuloida niitä indeksoimalla mikro-syy-verkko ja nähdä mitä tapahtuu. Paras tapa ymmärtää ja ennustaa todellisten monimutkaisten järjestelmien käyttäytymistä on simuloida niitä indeksoimalla mikro-syy-verkko ja nähdä mitä tapahtuu.

8. Kaunokirjallisuus

Malleihin sisältyy tietenkin idealisointeja. Mutta on väitetty, että tietyt idealisoinnit, joilla on erityisen merkittävä rooli tietokoneen simulointiin liittyvissä mallinnusmuodoissa, ovat erityisiä siinä mielessä, että ne ansaitsevat fiktion. Tämä osa käsittelee yrityksiä määritellä fiktioita ja tutkia niiden roolia tietokoneen simuloinnissa.

Fiktioiden roolista tieteessä on kaksi erilaista ajattelua. Yhden mukaan kaikki mallit ovat fiktioita. Tämä ajattelutapa on motivoitunut ottamalla huomioon esimerkiksi”ihanteellisen heilurin” rooli tieteessä. Tiedemiehet väittävät usein esittävän väitteitä tällaisista kokonaisuuksista (esim.”Ihanteellisella heilurilla on ajanjakso, joka on verrannollinen pituudensa neliöjuureen”), mutta niitä ei löydy mistään todellisesta maailmasta; joten niiden on oltava kuvitteellisia kokonaisuuksia. Tämä tieteellisten fiktiivisten entiteettien väitteiden yhdistäminen ei ole erityistä yhteyttä tietokoneen simulaatioiden kanssa. Aiheesta kiinnostuneiden lukijoiden tulisi tutkia tieteellistä esitystä koskevaa kohtaa [tuleva].

Toinen fiktioihin liittyvä ajattelutapa liittyy kysymykseen siitä, millaisia esityksiä tieteessä tulisi pitää fiktiivisinä. Täällä huolenaihe ei ole niinkään tieteellisten malliyksiköiden ontologia, vaan eri postuloitujen malliyksiköiden edustavuus. Tässä Winsberg (2009c) on väittänyt, että fiktioilla on erityinen yhteys tietokoneisiin simulaatioihin. Tai pikemminkin, että jotkut tietokonesimulaatiot sisältävät elementtejä, jotka tyypillisimmin kuvaavat sitä, mitä tieteessä voimme kutsua fiktiivisiksi esityksiksi, vaikka nämä esitykset eivät olisi ainutlaatuisesti läsnä simulaatioissa.

Hän huomauttaa, että edellä mainitun fiktion ensimmäinen käsitys, joka tekee "kaikesta todellisuuden kanssa ristiriidassa olevan fiktion" (s. 179), ei vastaa termin tavanomaista käyttöä: karkea kartta ei ole fiktio. Sitten hän ehdottaa vaihtoehtoista määritelmää: Tietokirjallisuutta tarjotaan "tarpeeksi hyvänä" oppaana jossain maailman osassa (s. 181); fiktio ei ole. Mutta määritelmää on tarkennettava. Ota heinäsirkan ja muurahaisen tarina. Vaikka tarina tarjoaa opetuksia siitä, kuinka maailma on, se on silti fiktio, koska se on "hyödyllinen opas maailmalle jossain yleisessä merkityksessä" eikä erityinen opas siihen, miten osa maailmaa on, sen " ensi näkemältä edustava tavoite”, laulava heinäsirkka ja toiling muurahainen. Tietokirjat, toisaalta,”Osoita tiettyyn maailman osaan” ja ovat opas siihen maailman osaan (s. 181).

Tämän tyyppiset kuvitteelliset komponentit ovat esimerkkejä paradigmaattisesti tietyistä tietokonesimulaatioista. Kaksi hänen esimerkkejään ovat”silogeeniatomi” ja “keinotekoinen viskositeetti”. Silogeeniatomeja esiintyy tietyissä nanomekaanisissa piinhalkeamismalleissa - sellaisissa monimuotoismalleissa, jotka sekoittavat 2.3 kohdassa mainitut kvanttimekaniikka ja molekyylimekaniikka. Silogeenipitoiset halkeaman leviämismallit piissä toimivat kuvaamalla halkeama itse kvantimekaniikalla ja halkeamia välittömästi ympäröivä alue klassista molekyylidynamiikkaa käyttämällä. Näiden kahden alueen mallintamiskehysten yhdistämiseksi rajaa käsitellään ikään kuin se sisältäisi 'silogeeniatomeja', joilla on sekoitus piin ja vedyn ominaisuuksiin. Silogeeniatomit ovat fiktioita. Niitä ei tarjota edes "riittävän hyvänä" kuvauksena rajan atomeista - niiden ensi näkemältä edustavat tavoitteet. Mutta niitä käytetään niin, että yleisen mallin voidaan toivoa saavan asiat oikein. Siten kokonaismalli ei ole fiktio, mutta yksi sen komponenteista on. Keinotekoinen viskositeetti on samanlainen esimerkki. Nestemäisiä, joissa on äkillisiä iskuja, on vaikea mallintaa laskennallisessa ruudukossa, koska äkillinen isku piiloutuu yhden ruudukkosolun sisällä, eikä niitä voida ratkaista sellaisella algoritmilla. Keinotekoinen viskositeetti on tekniikka, joka teeskentelee, että neste on erittäin viskoosia - fiktio-oikea, jos isku on, niin että hänestä shokki tulee vähemmän äkillinen, ja hämärtää useiden ristikkosolujen yli. Viskositeetin ja siten iskun paksuuden saaminen väärin auttaa saamaan yleisen mallin toimimaan "tarpeeksi hyvin". Uudelleen,nesteen kokonaismalli ei ole fiktio, se on riittävän luotettava opas nesteen käyttäytymiseen. Mutta komponentti, jota kutsutaan keinotekoiseksi viskositeetiksi, on fiktio - sitä ei käytetä iskun luotettavan mallintamiseen. Se sisällytetään suurempaan mallintamiskehykseen, jotta suurempi kehys olisi "riittävän luotettava".

Tämä kertomus on herättänyt kahdenlaista kritiikkiä. Toon (2010) on väittänyt, että tämä fiktion määritelmä on liian kapea. Hän antaa esimerkkejä historiallisista fiktioista, kuten minä, Claudius ja Schindler's Ark, jotka hänen mukaansa ovat fiktioita huolimatta siitä, että "niitä tarjotaan tietyissä suhteissa" riittävän hyvinä "oppaina niille ihmisille, paikoille ja tapahtumille, ja meillä on oikeus ota heidät sellaisinaan.” (s. 286–7). Toon todennäköisesti tukee laajempaa käsitystä fiktioiden roolista tieteessä, minkä mukaan niillä ei ole erityisen näkyvää tai korostunutta roolia tietokoneen simuloinnissa.

Gordon Purves (tulossa) väittää, että laskennallisissa malleissa on esimerkkejä fiktioista (hänen esimerkki on ns.”Kuvitteelliset halkeamiset”) ja muualla, jotka eivät täytä edellä käsiteltyjä tiukkoja vaatimuksia. Toisin kuin Toon, hän kuitenkin haluaa erottaa fiktiiviset mallielementit ei-fiktiivisistä. Hänen pääasiallinen kritiikkinsä on fiktiivisyyden kriteeri sosiaalisten käyttö normien suhteen - ja Purves väittää, että meidän pitäisi pystyä ratkaisemaan, onko jokin mallinnusfiktio fiktio, jos tällaisia normeja ei ole. Siksi hän haluaa löytää tieteellisen fiktion luonteenomaisen karakterisoinnin. Hänen ehdotuksensa muodostaa mallikuvion, joka heillä ei ole ominaisuutta, jota Laymon (1985) kutsui”palapalaiseksi parannettavuudeksi” (PI). PI on ominaisuus monille idealisoituneille malleille;se sanoo, että kun idealisoit vähemmän, mallistasi tulee entistä tarkempi. Mutta kun idealisoit silogeeniatomia, et saa tarkempia ja tarkempia piihakasimulaatioita. Mutta Purves pitää tätä PI: n epäonnistumista fiktiivisenä, eikä pelkästään oireellisena niistä.

bibliografia

  • Barberousse, A., ja P. Ludwig, 2009. “Models as Fictions” julkaisussa Science Fictions. Filosofiset esseet mallinnuksessa ja idealisoinnissa, Lontoo: Routledge, 56–73.
  • Barberousse, A., ja Vorms, M. 2014. “Tietokonepohjaisen empiirisen tiedon perusteista”, Synthese, 191 (15): 3595–3620.
  • Bedau, MA, 2011. “Heikko esiintyminen ja tietokoneen simulointi”, julkaisuissa P. Humphreys ja C. Imbert (toimittajat), Mallit, simulaatiot ja edustustot, New York: Routledge, 91–114.
  • –––, 1997.”Heikko esiintyminen”, Noûs (Lisäys 11), 31: 375–399.
  • Beisbart, C. ja J. Norton, 2012. “Miksi Monte Carlo -simulaatiot ovat päätelmiä eikä kokeita”, tiedefilosofian kansainvälisissä tutkimuksissa, 26: 403–422.
  • Beisbart, C., 2017. “Tietääkö tietämys tietokoneen simulaatioiden avulla? Sokraattinen harjoitus”, julkaisuissa M. Resch, A. Kaminski ja P. Gehring (toim.), Simulaation tiede ja taide (osa I), Cham: Springer, s. 153–174./
  • Burge, T., 1993. “Sisällön säilyttäminen”, The Philosophical Review, 102 (4): 457–488.
  • –––, 1998. “Tietokonetodisteet, apriori-tietämys ja muut mielet: Kuudes filosofisten näkökulmien luento,” Noûs, 32 (S12): 1–37.
  • Currie, Adrian, 2018.”Argumentti yllätyksestä”, Canadian Journal of Philosophy, 48 (5): 639–661
  • Dardashti, R., Thebault, K., ja Winsberg, E., 2015.”Vahvistus analogisen simulaation avulla: mitkä tyhmät reiät voisivat kertoa meille painovoimasta”, British Journal for the Philosophy of Science, 68 (1): 55– 89
  • Dardashti, R., Hartmann, S., Thebault, K., ja Winsberg, E., 2019.”Hawking-säteily ja analogiset kokeet: Bayesin analyysi,” Nykyfysiikan historian ja filosofian tutkimuksissa, 67: 1–11..
  • Epstein, J. ja R. Axtell, 1996. Kasvavat keinotekoiset yhteiskunnat: Yhteiskuntatieteet alhaalta ylöspäin, Cambridge, MA: MIT Press.
  • Epstein, J., 1999.”Agenttipohjaiset laskennalliset mallit ja generatiivinen yhteiskuntatiede”, Complexity, 4 (5): 41–57.
  • Franklin, A., 1996. Kokeen hylkääminen, Cambridge: Cambridge University Press.
  • –––, 1989. “Kokeen epistemologia”, Kokeen käyttö, D. Gooding, T. Pinch ja S. Schaffer (toim.), Cambridge: Cambridge University Press, 437–60.
  • Frigg, R. ja J. Reiss, 2009. “Simulaatiofilosofia: Kuumat uudet numerot tai sama vanha muhennos”, Synthese, 169: 593–613.
  • Giere, RN, 2009. “Muuttuuko tietokoneen simulointi kokeilun edessä?”, Philosophical Studies, 143: 59–62
  • Gilbert, N., ja K. Troitzsch, 1999. Simulaatio sosiaalitieteilijälle, Philadelphia, PA: Open University Press.
  • Grüne-Yanoff, T., 2007. “Rajallinen rationaalisuus”, Philosophy Compass, 2 (3): 534–563.
  • Grüne-Yanoff, T. ja Weirich, P., 2010. “Simulointifilosofia”, Simulaatio ja pelaaminen: Interdisciplinary Journal, 41 (1): 1–31.
  • Guala, F., 2002. “Mallit, simulaatiot ja kokeet”, mallipohjainen päättely: Tiede, tekniikka, arvot, L. Magnani ja N. Nersessian (toim.), New York: Kluwer, 59–74.
  • –––, 2008. “Paradigmaattiset kokeilut: Ultimatumpeli testistä mittauslaitteeseen”, Science Philosophy, 75: 658–669.
  • Hacking, I., 1983. Edustaminen ja puuttuminen: johdanto-aiheet luonnontieteiden filosofiassa, Cambridge: Cambridge University Press.
  • –––, 1988. “Laboratoriotieteiden vakaudesta”, The Journal of Philosophy, 85: 507–15.
  • –––, 1992.”Onko ajatuskokeilla oma elämä?” PSA (osa 2), A. Fine, M. Forbes ja K. Okruhlik (toim.), East Lansing: Tiedefilosofiayhdistys ry, 302–10.
  • Hartmann, S., 1996. “Maailma prosessina: Simulaatiot luonnon- ja yhteiskuntatieteissä”, R. Hegselmann, et ai. (toim.), Yhteiskuntatieteiden mallinnus ja simulointi tiedefilosofian näkökulmasta, Dordrecht: Kluwer, 77–100.
  • Hubig, C, & Kaminski, A., 2017. “Tietosuojan ja virheen käytännön teoriasta tietokoneen simuloinnissa”, julkaisuissa M. Resch, A. Kaminski ja P. Gehring (toim.), The Science and Art of Simulaatio (osa I), Cham: Springer, sivut 121–136.
  • Hughes, R., 1999. “Ising-malli, tietokoneen simulointi ja universaali fysiikka”, julkaisuissa M. Morgan ja M. Morrison (toim.), Models as Mediators, Cambridge: Cambridge University Press.
  • Huggins, EM, ja EA Schultz, 1967.”San Franciscon lahti varastossa”, Ympäristötieteiden ja tekniikan instituutin lehti, 10 (5): 9–16.
  • Humphreys, P., 1990. “Computer Simulation”, julkaisussa A. Fine, M. Forbes ja L. Wessels (toim.), PSA 1990 (osa 2), East Lansing, MI: Tiedefilosofian yhdistys, 497–. 506.
  • –––, 1995.”Laskennallinen tiede ja tieteellinen menetelmä”, Minds and Machines, 5 (1): 499–512.
  • –––, 2004. Laajentamalla itseämme: Laskennallinen tiede, empirismi ja tieteellinen menetelmä, New York: Oxford University Press.
  • –––, 2009. “Tietokonesimulaatiomenetelmien filosofinen uutuus”, Synthese, 169: 615–626.
  • Kaufmann, WJ, ja LL Smarr, 1993. Supertietokone ja tieteen muutos, New York: Scientific American Library.
  • Laymon, R., 1985.”Idealisaatiot ja teorioiden testaaminen kokeilulla”, havainnointi, kokeilu ja hypoteesi nykyfysiikassa, P. Achinstein ja O. Hannaway (toim.), Cambridge, MA: MIT Press, 147– 73.
  • Lenhard, J., 2007. “Tietokonesimulointi: Kokeilun ja mallinnuksen välinen yhteistyö”, Philosophy of Science, 74: 176–94.
  • –––, 2019. Lasketut yllätykset: tietokoneen simuloinnin filosofia, Oxford: Oxford University Press
  • Lenhard, J. & Küster, Yhdysvallat, 2019. Minds & Machines. 29: 19.
  • Morgan, M., 2003. “Kokeet ilman materiaalista väliintuloa: mallikokeet, virtuaalikokeet ja käytännöllisesti kokeet”, julkaisussa The Science Philosophy of Scientific Experimentation, H. Radder (toim.), Pittsburgh, PA: Pittsburgh University Press, 216–355.
  • Morrison, M., 2012. “Mallit, mittaus ja tietokonesimulointi: Kokeilun muuttuvat kasvot”, Philosophical Studies, 143: 33–57.
  • Norton, S. ja F. Suppe, 2001.”Miksi ilmakehän mallintaminen on hyvää tiedettä”, ilmakehän muuttamisessa: asiantuntemustieto ja ympäristöhallinto, C. Miller ja P. Edwards (toim.), Cambridge, MA: MIT Press, 88–133.
  • Oberkampf, W. ja C. Roy, 2010. Verifikaatio ja validointi tieteellisessä tietojenkäsittelyssä, Cambridge: Cambridge University Press.
  • Oreskes, N., K. Shrader-Frechetten ja K. Belitzin kanssa, 1994.”Numeeristen mallien verifiointi, validointi ja vahvistaminen maatieteissä”, Science, 263 (5147): 641–646.
  • Parke, E., 2014. “Kokeet, simulaatiot ja episteeminen etuoikeus”, Philosophy of Science, 81 (4): 516–36.
  • Parker, W., 2008a.”Franklin, Holmes ja tietokoneistosimulaation epistemologia”, International Studies in Science Philosophy, 22 (2): 165–83.
  • –––, 2008b.”Tietokoneiden simulointi virhetilastollisen linssin avulla”, Synthese, 163 (3): 371–84.
  • –––, 2009a.”Onko Matter todella merkitystä? Tietokonesimulaatiot, kokeet ja olennaisuus”, Synthese, 169 (3): 483–96.
  • –––, 2013. “Computer Simulation”, julkaisuissa S. Psillos ja M. Curd (toim.), Tiedefilosofian Routledge Companion, 2. painos, Lontoo: Routledge.
  • –––, 2017. “Tietokoneiden simulointi, mittaus ja tietojen assimilaatio”, British Journal for the Philosophy of Science, 68 (1): 273–304.
  • Peschard, I., 2010. “Mallinnus ja kokeilu”, julkaisuissa P. Humphreys ja C. Imbert (toim.), Models, Simulation, and Representations, London: Routledge, 42–61.
  • Primiero, G., 2019. “Minimalistinen epistemologia tekijäpohjaisille simulaatioille keinotekoisissa tieteissä”, Minds and Machines, 29 (1): 127–148.
  • Purves, GM, tuleva. "Totuuden löytäminen fiktioissa: ei-fiktioiden tunnistaminen kuvitteellisissa halkeamissa", Synthese.
  • Resch, MM, Kaminski, A., & Gehring, P. (toim.), 2017. Simulaation tiede ja taide I: Tutkimus-ymmärtäminen-tietäminen, Berliini: Springer.
  • Roush, S., 2015. “Kokeen episteeminen paremmuus simulaation kanssa”, Synthese, 169: 1–24.
  • Roy, S., 2005.”Viimeaikaiset edistykset fluidin dynamiikan ja lämmönsiirron numeerisissa menetelmissä”, Journal of Fluid Engineering, 127 (4): 629–30.
  • Ruphy, S., 2015. “Tietokonesimulaatiot: uusi tieteellisen tutkimuksen muoto?” julkaisussa SO Hansen (toim.), Teknologian rooli tieteessä: Filosofiset näkökulmat, Dordrecht: Springer, s. 131–149
  • Schelling, TC, 1971.”Segmentin dynaamiset mallit”, Journal of Mathematical Sociology, 1: 143–186.
  • Simon, H., 1969. The Sciences of Artificial, Boston, MA: MIT Press.
  • Symons, J., & Alvarado, R., 2019. “Episteemiset oikeudet ja tietokoneen simuloinnin käytäntö”, Minds and Machines, 29 (1): 37–60.
  • Toon, A., 2010. “Uudet lähestymistavat malleihin”, Metascience, 19 (2): 285–288.
  • Trenholme R., 1994. “Analoginen simulaatio”, Philosophy of Science, 61: 115–131.
  • Unruh, WG, 1981. “Kokeellinen mustanreiän haihdutus?” Physical Review Letters, 46 (21): 1351–53.
  • Winsberg, E., 2018. Filosofia ja ilmastotiede, Cambridge: Cambridge University Press
  • –––, 2010. Tiede tietokonesimulaation aikakaudella, Chicago: University of Chicago Press.
  • –––, 2009a.”Tarina kahdesta menetelmästä”, Synthese, 169 (3): 575–92
  • –––, 2009b. “Tietosimulointi ja tieteen filosofia”, Philosophy Compass, 4/5: 835–845.
  • –––, 2009c.”Toiminta fiktioille: tieteen laajuuden laajentaminen”, Science Fictions: Filosofiset esseet mallinnuksesta ja idealisoinnista, M. Suarez (toim.), London: Routledge.
  • –––, 2006.”Käsiraidan tiensä yläosaan: epäjohdonmukaisuus ja väärentäminen interteoreettisessa pelkistyksessä”, Science Philosophy, 73: 582–594.
  • –––, 2003. “Simuloidut kokeilut: metodologia virtuaalimaailmaan”, Science Philosophy, 70: 105–125.
  • –––, 2001. “Simulaatiot, mallit ja teoriat: Monimutkaiset fysikaaliset järjestelmät ja niiden kuvaukset”, Science of Science, 68: S442 – S454.
  • –––, 1999. “Seuraamusmallit: Simulaation epistemologia”, Science in Context, 12 (3): 275–92.

Akateemiset työkalut

sep mies kuvake
sep mies kuvake
Kuinka mainita tämä merkintä.
sep mies kuvake
sep mies kuvake
Esikatsele tämän tekstin PDF-versio SEP-Ystävien ystävissä.
inpho-kuvake
inpho-kuvake
Katso tätä kirjoitusaihetta Internet Philosophy Ontology Projektista (InPhO).
phil paperit -kuvake
phil paperit -kuvake
Parannettu bibliografia tälle merkinnälle PhilPapersissa, linkkien avulla tietokantaan.

Muut Internet-resurssit

  • Phys.org - tietokonesimulaatiot.
  • Tietokonesimulointi, osoitteessa sciencedaily.com.
  • IPPC - hallitustenvälinen ilmastomuutospaneeli.