GPN6:Artificial Moral Agents: Unterschied zwischen den Versionen

aus dem Wiki des Entropia e.V., CCC Karlsruhe
Wechseln zu: Navigation, Suche
(Artificial Moral Agents)
(Artificial Moral Agents)
Zeile 3: Zeile 3:
 
'''Kurzinfo:'''
 
'''Kurzinfo:'''
  
Die Diskussion um AMAs stammt eigentlich aus dem Umfeld der "Machine Ethics" - und dort geht es nicht zuletzt um Roboter und andere komplexe Maschinen. Aber auch bei Software Agenten gibt es inzwischen Überlegungen, diese so zu entwerfen, das sie moralische Normen folgen können. Ein mögliches Anwendungsgebiet hierfür wären z. B. datenschutzfreundliche Technologien, um die es im Vortrag gehen soll.
+
Die Diskussion um AMAs stammt eigentlich aus dem Umfeld der "Machine Ethics" - und dort geht es nicht zuletzt um Roboter und andere komplexe Maschinen. Aber auch bei Software Agenten gibt es inzwischen Überlegungen, diese so zu entwerfen, das sie moralische Normen folgen können. Ein mögliches Anwendungsgebiet hierfür wären z. B. datenschutzfreundliche Technologien, um die es im Vortrag gehen soll. Der Schwerpunkt wird mehr auf der Ideologie als auf der Technologie liegen.
 +
 
 +
Der Vortrag ist ein Testlauf für einen [http://social.semantic-web.at/wiki/index.php/Privacy_im_Social_Web Artikel], an dem ich gerade arbeite. Hinweise und Anregungen sind sehr willkommen.
  
 
'''Literatur:'''
 
'''Literatur:'''
  
''kommt noch''
+
* Allen, C., W. Wallach, I. Smit (2006): Why Machine Ethics? In: IEEE Intelligent Systems, July/August 2006, 12-17.
 +
* Nagenborg, M. (2005): Das Private unter den Rahmenbedingungen der IuK-Technologie. Wiesbaden: VS Verlag.
 +
* Philipps, D. J. (2005): Privacy Policy and PETs. In: New Media and Society, 2005, Vol. 6, No. 6, 691–706.
 +
* Sturma, D. (2003): Autonomie. In: T. Christaller, J. Wehner (Hg.): Autonome Maschinen. Wiesbaden: Westdeutscher Verlag, S. 38-56.
  
 
'''Links:'''
 
'''Links:'''
  
* [http://www.https://www.prime-project.eu/.de PRIME]
+
* [http://p3ptoolbox.org/guide/section2.shtml | What is P3P and How Does it Work?] (Kap. 2 aus: [http://p3ptoolbox.org/guide/ The P3P Implementation Guide])
 
+
* Vladimir Kolovski et al.: [http://www.csee.umbc.edu/swpw/papers/kolovski.pdf | Towards a Policy-Aware Web]
 +
* [http://www.https://www.prime-project.eu/.de Privacy and Identity Management for Europe] (Projekt-Homepage)
 
* Stan Franklin and Art Graesser: [http://www.msci.memphis.edu/~franklin/AgentProg.html Is it an Agent, or just a Program?]
 
* Stan Franklin and Art Graesser: [http://www.msci.memphis.edu/~franklin/AgentProg.html Is it an Agent, or just a Program?]
 
+
* UNESCO, Information Society Division, Communication and Information Sector (Eds.) (2007): Ethical Implications of Emerging Technologies: A Survey. Paris: UNESCO. - Download als (ziemlich großes) [http://unesdoc.unesco.org/images/0014/001499/149992E.pdf PDF]
''wird noch mehr...''
+

Version vom 30. Mai 2007, 21:42 Uhr

Artificial Moral Agents

Kurzinfo:

Die Diskussion um AMAs stammt eigentlich aus dem Umfeld der "Machine Ethics" - und dort geht es nicht zuletzt um Roboter und andere komplexe Maschinen. Aber auch bei Software Agenten gibt es inzwischen Überlegungen, diese so zu entwerfen, das sie moralische Normen folgen können. Ein mögliches Anwendungsgebiet hierfür wären z. B. datenschutzfreundliche Technologien, um die es im Vortrag gehen soll. Der Schwerpunkt wird mehr auf der Ideologie als auf der Technologie liegen.

Der Vortrag ist ein Testlauf für einen Artikel, an dem ich gerade arbeite. Hinweise und Anregungen sind sehr willkommen.

Literatur:

  • Allen, C., W. Wallach, I. Smit (2006): Why Machine Ethics? In: IEEE Intelligent Systems, July/August 2006, 12-17.
  • Nagenborg, M. (2005): Das Private unter den Rahmenbedingungen der IuK-Technologie. Wiesbaden: VS Verlag.
  • Philipps, D. J. (2005): Privacy Policy and PETs. In: New Media and Society, 2005, Vol. 6, No. 6, 691–706.
  • Sturma, D. (2003): Autonomie. In: T. Christaller, J. Wehner (Hg.): Autonome Maschinen. Wiesbaden: Westdeutscher Verlag, S. 38-56.

Links: