Artikkelit sv
Taina Kalliokoski
Älyteknologioiden kehittämisessä tarvitaan teologista ymmärrystä

s.
121-122
Aku Visala
Voiko robotti olla moraalisesti vastuullinen toimija?

s.
123-138
Abstract
Ihmistä muistuttavien ja ihmisen käyttäytymistä simuloivien robottien moraalinen status ei ole selvä. Artikkelissa kiinnitetään huomioita erityisesti niihin käytäntöihin, joista moraalinen vastuullisuus koostuu. Näitä ovat esimerkiksi rankaiseminen, moittiminen, kehuminen ja palkitseminen. Missä määrin moraalisen vastuullisuuden asenteet ja käytännöt ovat oikeutettuja robotteja kohtaan? Vastuupessimistien mukaan robotteja ei tulisi koskaan pitää moraalisessa vastuussa, koska näiltä puuttuu jokin kyky, joka on välttämätön moraaliselle toimijuudelle – esimerkiksi tietoisuus, autonomia tai vapaa tahto. Optimistit puolestaan ajattelevat, että robotit voisivat ainakin periaatteessa kuulua vastuuasenteidemme piiriin. Artikkeli esittelee ensin keskustelua moraalisesta vastuusta ja sen perusteluista. Tämän jälkeen se tarkastelee kahta vastuupessimistien argumenttia, joista ensimmäinen koskee tietoisuutta ja toinen autonomiaa. Esitettyään kriittisiä huomioita näistä argumenteista se hahmottelee varovaisen optimistista kantaa, jonka mukaan robotit eivät ehkä kykene täysimääräiseen vastuullisuuteen, mutta ne kuitenkin voisivat olla sopivia kohteita ainakin joillekin vastuuasenteille. *** Can a Robot be a Morally Responsible Agent? — The moral status of human-like robots is unclear. Should we offer moral treatment to robots? This article focuses on one form of moral treatment: the practices that make up moral responsibility. These include, for example, punishment, reprimand, blame, praise and reward. The question is whether attitudes about and the practice of moral responsibility can be justified of robots. According to responsibility pessimists, robots should never be held morally responsible, because they lack some of the capacity necessary for moral agency—for example, consciousness, autonomy, or free will. Optimists, on the other hand, think that robots could, at least in principle, be apt subjects of our responsibility attitudes. The article begins with a discussion of moral responsibility and its rationale. It then examines two arguments of responsibility pessimists, the first concerning consciousness and the second, autonomy. After making critical observations about these arguments, it outlines a cautiously optimistic position, according to which robots may not be capable of full responsibility but could nevertheless be suitable targets for at least some responsibility attitudes.
Jaana Hallamaa
Taina Kalliokoski
Vastuun kantaminen sosioteknisen järjestelmän epäonnistumisessa

s.
139-154
Abstract
Artikkeli käsittelee vahingon ja vastuun välisiä epäjatkuvuuksia. Mikä estää ja luo edellytyksiä yhteistoiminnan jatkamiselle sosioteknisten järjestelmien toiminnan epäonnistuttua virheen vuoksi? Sosioteknisiä systeemejä ovat esimerkiksi modernit organisaatiot, joiden ydintehtävien hoitamiseksi tarvitaan ihmistoimijoiden ja monien teknologisten järjestelmien sujuvaa yhteistyötä ja joiden vakaa toiminta on olennaista turvallisuuden takaamiseksi. Yhteiskunta edellyttää, että vakavan virheen tehnyt tai vahingon aiheuttanut kantaa vastuun toiminnastaan alistumalla oikeusjärjestelmän hänelle langettamiin sanktioihin. Kun virheen tekee teknologinen pseudotoimija tai sosiotekninen järjestelmä, perinteiset filosofiset vastuullisen toimijan intentionaalisuuteen, kausaalisuuteen sekä kontrolliin perustuvat ehdot synnyttävät vastuuaukon. Aineistona ovat epäonnistumisen tutkimukset sekä filosofiset yhteistoiminnan ja vastuun teoriat. Niitä kriittisesti soveltaen muotoillaan yhteistoiminnan onnistumisen ja epäonnistumisen sekä yhteisen vastuun kantamisen käsitteellisiä, toiminnallisia ja moraalipsykologisia ehtoja. Tekoälyteknologiat ja systeemiajattelu haastavat käsityksiä vastuusta ja syyllisyydestä. Tarkastelemalla vastuunkantamista relationaalisesti sosiaalisena toimintana osa menneeseen ja tulevaan suuntautuvan vastuun jakamisen vaikeuksista voidaan ratkaista. Vastuuaukon ylittämiseksi esitetään osallisuuden käsitettä ja erilaisia vahinkoon osallistumisen tapojen tunnistamista. *** Bearing Responsibility When Sociotechnical Systems Fail — In society, those who have made a serious mistake or caused damage must bear responsibility for their actions by submitting themselves to sanctions imposed by the legal system. Traditional philosophical conditions for determining responsibility, however, become inadequate, when a technological pseudo-actor such as an artificial intelligence or socio-technical system has caused or been a party in a harmful incident. Philosophers call this phenomenon the responsibility gap, whereas in the social sciences the situation is known as the problem of many hands. This article critically applies various studies on human error and philosophical theories of social action and responsibility to formulate conceptual, practical, and moral psychological conditions for success and failure in taking social action and bearing joint responsibility in a context of sociotechnical systems. By conceptualizing responsibility as social relational action and widening it to cover even passive forms of complicity, at least some of the difficulties in accounting for responsibility can be resolved.
Tiia Liuski
Janne Aalto
Taina Kalliokoski
Kehittyvä sotilasteknologia: Haaste sotilaan etiikalle ja sotilaspapille kouluttajana?

s.
155-173
Abstract
Suomalaisten sotilaspappien tehtävät ovat yhä enemmän suuntautuneet koulutukseen. Uudistetut varusmiesten koulutusohjelmat huomioivat vahvasti sotilaan mielen ja etiikan, minkä vuoksi on syytä tarkastella sotilaspappien osaamista etiikan kouluttajina. Uusia eettisiä kysymyksiä tuovat kehittyvät sotilasteknologiat. Artikkelissa analysoimme, miten kehittyvät sotilasteknologiat haastavat sotilaan eettistä toimintakykyä, ja pohdimme millaista ammatillista osaamista sotilaspapit tarvitsevat tukiessaan sotilaita niissä. Sotilaspapit tekevät 2020-luvulla työtään moniarvoisessa yhteiskunnassa ja toimintaympäristössä, jossa kriisien varoajat ovat lyhentyneet, turvallisuusympäristön jännitteet kasvaneet ja sotilaiden tehtävät muuttuneet aiempaa kansainvälisemmiksi. Sotilaan eettiseltä toimintakyvyltä, jota Puolustusvoimissa pidetään sotilaan kokonaisvaltaisen toimintakyvyn koossa pitävänä osana, vaaditaan siksi eheyttä. Kehittyvät sotilasteknologiat koettelevat erityisesti sotilaan eettistä päätöksentekokykyä ja moraali-identiteettiä. Pedagogisella, teologisella ja katsomuksellisella osaamisella sotilaspapit voisivat vastata teknologioiden tuomiin uusiin haasteisiin. *** Emerging Military Technology: A Challenge for Military Ethics and Military Chaplains as Trainers? — The Finnish military chaplains’ work is increasingly focused on training. The renewed conscript training programmes do well in accounting for a soldier’s mind and ethics, which is why it is necessary to consider the skills of chaplains as ethical trainers. Emerging military technologies have also brought new ethical issues to the fore. In this article, we analyse how emerging military technologies challenge the soldier’s ethical action competence and what professional skills the chaplaincy need to support the soldiers. In the 2020s, the military chaplaincy are working in a pluralistic society and operational environment, where the window for taking action in pre-crisis times has shrunk, the tensions in the security environment have increased and the role of soldiers has become more international. As the ethical action competence is an integral part of the soldiers’ overall action competence in the Finnish Defence Forces, it must remain intact. Developing military technologies test the ethical decision-making capacities and moral identities of soldiers. The military chaplaincy can respond to these new challenges of technologies with pedagogical, theological and worldview-related expertise.
Anton Berg
Katja Valaskivi
Dataistunut uskonto: Kaupalliset kuvantunnistuspalvelut uskontoa ”tunnistamassa”

s.
174-200
Abstract
Artikkeli jäsentää teknologian ja uskonnon välistä suhdetta tarkastelemalla empiirisesti, miten kolmen suurimman konenäköä kaupallistavan ja kehittävän yhdysvaltalaisen teknologiayrityksen, Googlen, Amazonin ja Microsoftin, kuvantunnistuspalvelut luokittelevat uskonnollisia kuvia ja millaisin seurauksin. Aineisto on kerätty Googlen kuvapalvelusta, ja se koostuu kristinuskoon, islamiin, hindulaisuuteen, buddhalaisuuteen ja shintolaisuuteen liittyvistä kuvista. Poikkitieteellisen ja eksploratiivisen artikkelin metodologinen ja teoreettinen asetelma yhdistää datatieteellisiä laskennallisen yhteiskuntatieteen menetelmiä uskonnon- ja mediatutkimuksen alan teorioihin ja laadullisiin menetelmiin. Tutkimuksemme päätulos on, että kuvantunnistuspalvelut tuottavat uskonnon kontekstissa sekularistisia, kristillisiä, kaupallisia ja rasistisia vinoumia. *** Datafied Religion: Commercial Image Recognition Services for “Identifying” Religion — In this exploratory study, we investigate the classification of religious images by Google, Microsoft, and Amazon’s image recognition services and how these systems can perpetuate human biases. Our findings reveal secularist, Christian, commercial, and racist biases within these services. While earlier studies have focused on biases related to ethnicity, gender and sexual orientation, religion remains empirically underexplored. We address the following research questions: How do these services identify religion, and what differences are there between them? How do they perform with images depicting religious gatherings or rituals? Do identification performances differ based on religious tradition, gender or ethnicity?
Katsauksia ja keskustelua
Tapio Luoma
Kristittynä teknologian maailmassa

s.
201-203
Raine Haikarainen
Ilmailun turvallisuustutkinta ja kriminalisointipaineet

s.
204-211
Outi Lehtipuu
Ritva Palmén
Digitaaliset ihmistieteet teologiassa ja uskonnontutkimuksessa

s.
212-217
Henrikki Salo-Pöntinen
Uhkakuvat voivat sumentaa tekoälykehityksen todellisuutta

s.
218-225
Kirjallisuutta
Kirjallisuutta

  • William H. U. Anderson (Ed.). Technology and Theology (Juuso Loikkanen)
  • Philip Butler. Black Transhuman Liberation Theology: Technology and Spirituality (Taina Kalliokoski)
  • William MacAskill. What We Owe the Future: A Million-Year View (Eero Lumme)
  • Ilkka Niiniluoto. Tekniikan filosofia (Jaana Hallamaa)
  • Amy M. Green. Longing, Ruin, and Connection in Hideo Kojima’s Death Stranding (Heidi Rautalahti)
  • Susanna Asikainen ja Marika Pulkkinen (toim.) (Outi Hakola)
s.
226-238