[SF-Ethik] Roboter und KI - Asimov gegen Realität, wer gewinnt auf euren Welten?

  • Quote

    Original von Angelique LeCiel
    Ist vermutlich jedem schonmal passiert: Man tut etwas, der Computer reagiert vollkommen unerwartet. ...
    Das heißt, es gibt selbst heute schon Situationen, in denen ein Rechner nicht unbedingt seiner Programmierung folgt, sondern ganz zufällig, ungeplant reagiert, einem plötzlichen Impuls folgend.


    Interessante These... man muß aber gar keine PC-Intelligenz annehmen, um so ein Verhalten zu erklären. Ich würde nicht einmal den Menschen, die PCs verabscheuen und mit ihnen nicht arbeiten können, ernsthaft einreden, der PC könne irgendwelche Reaktionen selber "herbeiführen". Eine Nichtwiederherstellung des Ausgangszustands für die "unerwartete Reaktion" genügt völlig und kommt ohne Esoterik aus (weshalb ich diese Erklärung bevorzuge, selbst wenn ich gerne man Computer anthropomorphisiere... solange niemand da ist, der mir diese Behauptungen abnehmen würde). PCs sind extrem komplex, und nur noch wenige Menschen sind in der Lage, alle möglichen Wechselwirkungen zu erfassen. Vielleicht hat sogar der Vollmond zuweilen Einfluß, die Raumetemperatur hat es bei manchen Bauweisen sicher, aber zumeist sine es doch eher Änderungen in den gespeicherten Daten, die in einer Kombination, die nicht einegplant war, zusammen irritierende Effekte haben.
    Wenn irgendwo ein Bit "umkippt", kann das auch "Fehlverhalten" zur Folge haben, aber selbst dann tut der PC nichts, als seiner Programmierung zu folgen und je nach Programmierung den Fehler auszugleichen oder eine Fehlermeldung zu liefern oder, wenn das Programm nicht fehlertolerant programmiert wurde, hängenzubleiben oder abzustürzen. Alle diese vier und vielleicht noch mehr Möglichkeiten hat der PC nicht "von sich aus", sondern sie sind ihm mitgegeben. Eigenständig tun die bisher in der breiten Öffentlichkeit aufgetauchten PC niemals etwas.

  • Sorry, war etwas mißverständlich von mir ausgedrückt. Bei dem Gedankenspiel ging es nicht darum, daß Artifakte durch "Gefühle" oder eine "Seele" ausgelöst werden (immerhin saßen da 20 Technikfreaks in einer Runde - da ist kein Platz für Esoterik :D).


    Wir haben nicht versucht, Maschinen zu vermenschifizieren - sondern haben uns umgekehrt auf die These bezogen, daß Menschen auch nur biologische Maschinen sind.


    Laut dieser These (oder Theorie? Bin kein Biologe, aber ich glaube sogar, daß das Ganze bereits weitläufig anerkannt ist) folgt der Mensch auch nur seiner Programmierung (in erster Instanz seines Gehirns, in zweiter seiner Gene). Und das was wir als "Seele" bezeichnen ist eigentlich nur ein kurzzeitiger elektrischer Impuls, der nicht immer 100% mit unserer Programmierung übereinstimmen muß.


    Ergo war unser Gedankenexperiment, daß diese unerwarteten Impulse im menschlichen Gehirn vergleichbar sind mit den Artefakten, die bei Computern auftreten. Wenn also erstmal die Programmierung ausgefeilt genug wäre (einem menschlichen Gehirn entsprechend, also SEHR komplex) und die Technik so empfindlich, daß ein Verfälschen von Bits keine Seltenheit ist, dann könnte das Ganze ähnliche Auswirkungen haben wie beim Menschen.


    Wie gesagt, die Artefakte treten heute schon auf, aber Computer sind so dermaßen weit von der Komplexität eines menschlichen Gehirns entfernt, daß bei den heute auftretenden Fehlern niemand ernsthaft von eigenem Willen sprechen würde. Obwohl... Angst scheinen sie ja schon zu kennen, wenn ich meinem Rechner drohe, daß ich ihn aus dem Fenster werfe, dann funktioniert er meist wieder einwandfrei... :D


    Im Ernst: Kernaussage war also nicht, daß die Rechner aufgrund einer "Seele" aus ihrer Programmierung ausbrechen, sondern daß auf natürliche Umstände zurückzuführende Artefakte einem zukünftigen Rechner so etwas wie einen eigenen Willen verleihen könnten.

  • Quote

    Original von Angelique LeCiel
    Wir haben nicht versucht, Maschinen zu vermenschifizieren - sondern haben uns umgekehrt auf die These bezogen, daß Menschen auch nur biologische Maschinen sind.


    Ach so, das Spiel... Als die Dampfmaschinen aufkamen, war der Mensch so eine Art (Dampf-)Maschine. Heute haben wir Computer, also sind die Menschen so eine Art Computer. Und morgen werden wir etwas anderes haben, das die Menschen dann sein werden. Und so weiter bis zum Ende aller Zeiten. Für die jeweiligen Techniker ist es natürlich besonders reizvoll, weil sie dann getrost von sich glauben können, sie wüßten mehr über die Menschen als alle anderen, weil sie sich ja mit - betreffende Technik hier einfügen - auskennen und Menschen schließlich auch nur so etwas ähnliches sind... ;)


    Quote

    Original von Angelique LeCiel
    Obwohl... Angst scheinen sie ja schon zu kennen, wenn ich meinem Rechner drohe, daß ich ihn aus dem Fenster werfe, dann funktioniert er meist wieder einwandfrei... :D


    Vor nicht allzu langer Zeit habe ich eine populärwissenschaftliche Wiedergabe einer experimentellen Studie gelesen, wo es darum ging, ob Menschen, die Stress erleiden, widerstandsfähiger werden bzw. mehr oder weniger aushalten, wenn sie fluchen dürfen. Die, die fluchen, halten mehr aus ;) . Das heißt, die Drohung könnte die Situation ganz real beeinflussen: Du regst Dich beim Sprechen ab, der Druck ist ein bisschen geringer, und Du machst richtig, was Du vorher nicht hinbekommen hast. Die Drohung wirkt wirklich - nur eben nicht auf den Computer.


    Wenn also Computer "eigenwillig" erscheinen mögen, dann nur, weil der Programmierer ihnen das mit auf den Weg geben konnte. Ich bin gerade dabei, eine Software zu schreiben, die Spielerverhalten simulieren soll. Es gibt ca. 10 Strategien, die sich aus festen Werten und Unsicherheitsfaktoren ergeben. Das läßt sich programmiertechnisch noch handhaben... Dennoch wird der Rechner, der die Reaktionsweise der "Software"-Spieler berechnet, keine Gefühle haben, er wird auch niemals "spielen". Er addiert und subtrahiert bloß Zahlen, weil ich das in seine Programmierung geschrieben habe.

  • Ich bin mir noch nicht ganz sicher ob es echte KIs in meiner Welt gibt.


    Was die Menschen warscheinlich haben, sind Diener bzw. Arbeiter, die die Aufgaben für die sie vorgesehen sind ausführen. Dazu braucht man keine sich selbst bewusten wirklich intelligenten Maschinen, sonder maximal flexible, und in Grenzen autonome, Befehlsempfänger. In diese Maschinen haben die Menschen sicher Programme eingebaut, die verhindern das Menschen zu Schaden kommen.


    Möglicherweise baue ich Maschinen ein, die aufgrund einer Fehlfunktion wirklich intelligent geworden sind. Die würden sich dann aber gegenüber den Menschen emanzipieren und wären nicht mehr an eine Programmierung gebunden. Wenn ich das einbaue, dann würden die KIs abhauen und sich irgendwo verstecken und wären den Menschen gegenüber feindlich gesinnt (Battlestar Galaktika lässt grüßen).

  • Eine echte KI zeichnet sich doch im Gegensatz zu einem normalen, hochentwickelten... Technik-dings vor allem durch Lernfähigkeit aus, oder?


    Bedeutet das nicht, dass die Frage nach der Ethik eines Roboters (z.b.) eigentlich erst in dem Moment sinnvoll wird, in dem der Roboter eigenständig die Möglichkeit hat, sich für oder gegen das Einhalten dieser Robotergesetze zu entscheiden?
    Möglicherweise indem er ein Problem durch eine Handlung löst, die einen Menschen tötet. Und zwar in dem Bewusstsein, dass er für sein Verhalten vernichtet würde, falls es bekannt würde, aber eine Wahrscheinlichkeit besteht, dass es gar nicht rauskommt. Sollte es nicht rauskommen, würde das Problem als gelöst gelten, er hätte also seine Aufgabe erledigt, würde dafür vielleicht sogar belohnt und verbessert und könnte zukünftige Aufträge besser ausführen, oder so...


    Aber diese Entscheidung müsste er dann aufgrund von Daten und Gelerntem treffen, die über die Programmierung hinausgehen, scheint mir. Ansonsten, da finde ich Gomecks Argumentation überzeugend, geht es um eine Ethik des Programmierers.


    Oder war das jetzt die eigentliche Frage, ob in unseren Welten eine solche Ethik den Programmierungen zu Grunde gelegt wird?


    Ich glaube, meine Jungs und Mädels (sprich kriegführende Nationen ^^) wären da zum einen sehr vorsichtig, ihren Maschinen die Entscheidung, wie viel ihnen ein Menschenleben wert ist, selber zu überlassen... hängt auch damit zusammen, dass sie genug Leute haben, die die Maschinen aus der Entfernung steuern können, was auch gleich die Sache mit der Freund-Feind-Kennung einfacher macht, weil nicht so viele Freunde rumlaufen... Insofern würde bei zivilen Maschinen - die allerdings eher keine echten KIs wären (weil Kosteneffizienz in dem Zusammenhang eher weniger wichtig wäre - diese Art von Programmierung auf jeden Fall stattfinden, und bei militärischen muss halt entweder ne sehr saubere Freund/Feind-Kennung her, die in der Verantwortung der Hersteller steht, oder alternativ eine Garantie, dass sie ein gewisses Gebiet nicht verlässt (nach Möglichkeit halt eins, in dem eine feindliche Basis ist, so dass sie keinen eigenen Leuten begegnet...)


    (Ich habe zwar die Diskussion verfolgt, aber ganz sicher bin ich mir nicht, dass ich die Frage richtig verstanden hab...^^)

  • Wenn also Computer "eigenwillig" erscheinen mögen, dann nur, weil der Programmierer ihnen das mit auf den Weg geben konnte. Ich bin gerade dabei, eine Software zu schreiben, die Spielerverhalten simulieren soll. Es gibt ca. 10 Strategien, die sich aus festen Werten und Unsicherheitsfaktoren ergeben. Das läßt sich programmiertechnisch noch handhaben... Dennoch wird der Rechner, der die Reaktionsweise der "Software"-Spieler berechnet, keine Gefühle haben, er wird auch niemals "spielen". Er addiert und subtrahiert bloß Zahlen, weil ich das in seine Programmierung geschrieben habe.

    Naja, unser Gehirn leitet im Prinzip auch nur elektrochemische Ströme weiter. Es ist sogar schon physikalisch genau erklärt, wie und unter welchen Umständen ein Neuron einen Impuls aufnimmt und weiterleiten kann.


    Klar, der Umstand, dass wir dabei etwas empfinden, dass wir Gefühle haben, lässt sich nicht erklären. Allerdings gibt es auch keine Möglichkeit zu überprüfen, ob eine Nervenballung (sei es ein Gehirn oder ein Ganglion) wirklich Emotionen produziert oder nicht. Letztendlich ist der Vorgang ungeklärt, wie aus dem "es werden nur elektrochemische Impulse weitergeleitet" ein "das Gehirn empfindet etwas" wird.


    Und aus genau dem gleichen Grund kann man auch nicht feststellen, ob das "es werden elektromagnetische Impulse beim Computer weitergeleitet" auch zu Emotionen führt oder nicht.


    @ Angelique
    Wie Emotionen nun genau entstehen, ist eine sehr interessante Sache. Aber man kann mit relativer Sicherheit sagen, dass es nicht auf "Fehler" (sprich: das Neuron produziert einen Impuls, den es eigentlich nicht produzieren sollte), zurückzuführen ist.


    1) Emotionen sind recht gut reproduzierbar: Wenn du dich z.B. verbrennst, empfindest du Schmerz und die dazugehörigen Emotionen. Diese und ähnliche Emotionen sind zu reproduzierbar, um sie als "Artefakte" durchgehen zu lassen.


    2) Man kann das Gehirn zwar nicht als Ganzes verstehen, aber man versteht einzelne Nervenbahnen. Und dabei ist herausgekommen, das "Artefakte" zwar auftreten können, aber verdammt selten sind.


    Da Emotionen bisher noch eine Blackbox sind und ihre genaue Art der Erzeugung unbekannt, kann man sich dessen natürlich niemals sicher sein. Aber es wird vermutet, dass sie Teil der regulären und genetisch vorprogrammierten Funktionsweise des Gehirns sind.

  • (Ich schreibe mal frisch drauf los, ohne die anderen Artikel gelesen zu haben :) )


    Ach ja, die Robot-Gesetze des Herrn Kollegen. (Er war Chemiker, und sein Thiotimolin-Artikel ist einfach umwerfend; ein Brüller für jeden Kenner der Materie.)


    Lustig ist dabei, daß er als Künstler etwas ausformuliert hat, was im zivilen Bereich im Prinzip ohnehin schon gilt, auch wenn es anders gesagt wird: Eine Maschine hat ihren Zweck zu erfüllen, darf aber dabei keine Menschen schädigen, und selbst kaputt machen soll sie sich natürlich auch nicht. Das ist es im Kern. Im Prinzip gilt das auch für einen Hammer oder ein Küchenmesser, um so mehr für Autos und Papierschneidemaschinen. Das ist trivial.
    Interessant wird es erst, wenn ...


    1) diese Maschine sapient ist, sich also ihrer Existenz und ihres Zweckes bewußt ist; oder ...
    2) diese Maschine den Zweck hat, Menschen zu schädigen, also militärisches Gerät ist; oder, ganz lustig, ...
    3) diese Maschine sapient und militärisches Gerät ist .


    Ein paar Denkanstöße.


    Fall 1
    Das ist eigentlich der leichteste Fall -- für uns Menschen. Da ist das halt fest verdrahtet und kann nicht überwunden werden. Gibt's bei uns Menschen auch, man nennt es Instinkt.
    aber
    Wenn man die Sache aus der Roboterperspektive betrachtet, wird's unter Umständen hoch interessant. Mal sehen: Angenommen, der Roboter hat nur eine Möglichkeit, die Geisel zu retten: den Geiselnehmer zu töten. Warum er weiß, daß die Geisel sterben wird? Weil der Geiselnehmer schon eine Gesel kalt gemacht hat, vor aller Augen, damit's jeder sieht. Wenn der Roboter was tut, stirbt ein Mensch. Das darf er nicht zulassen. Wenn er nix tut, stirbt ein anderer Mensch. Das darf er nicht zulassen. Schönes Dilemma. Mit Logik nicht zu lösen. Ich bin sicher, daß Asimov selbst schon auf diese Idee gekommen ist und eine Geschichte drum herum gemacht hat.


    Fall 2
    Hier liegt das Problem im IFF, also der Identifcation of Friend or Foe. Die ist nicht perfekt, wie jeder, der einmal einen Soldaten gespielt hat, der wegen "Friendly" Fire draufgegangen ist (oft ausgelöst durch die Dummheit des eigenen Funkers), weiß. Im Falle der Nichtsapienz der Maschine kann man sich noch auf den doofen Programmierer ausreden, wenn man noch Zeit dafür hat.


    Fall 3
    Aber was ist, wenn man die Killermaschine sapient macht, damit sie am Schlachtfeld selbst agieren kann? Hier schleicht sich das Dilemma aus Fall 1 an und überfällt den armen, armen Kampfroboter von hinten ... bis er vielleicht aus dem System ausbricht und buddhistischer Mönch wird, ein Blech-Yamabushi sozusagen :)


    Wie gesagt, so weit her geholt sind die asimovschen Robotgesetze gar nicht, auch wenn sie -- und das sei einem Literaten erlaubt -- vereinfachen, um den Punkt klar zu machen. Sie implizieren allerdings eine Wichtigkeitshierarchie: Menschen stehen über Robotern. Roboter müßen sich selbst zerstören (lassen), um Menschen zu retten. Wenn man das auf zwei Spezies (?) überträgt, wie z.B. Mensch -- Ork, Romulaner -- Betazoid oder "Arier" -- "Jude" ... Das letze Paar sagt wohl, was ich meine. Was ist also, wenn man auf Grund der Komplexität der Hardware- und Software-Struktur einem Stück Materie aus Stahl und Silizium Leben zusprechen muß? Gilt diese Hierarchie dann noch? Oder wird sie, wie im letzten Paar demonstriert, rassistisch?


    Soviel zum Allgemeinen (doch ganz schön viel geworden!).


    Wenn man bedenkt, daß es auf Rudran (endlich beim Thema!) möglich ist, z.B. Golems zu basteln und Zombies aufzustellen, für die man sapiente Geister bindet, was sie (die Konstrukte) praktisch zu Robotern im Sinne der Robotgesetze macht, gibt es ein eindeutiges Urteil: Asimov verliert. Der Grund liegt darin, daß es kaum den gangbaren Mittelweg zwischen Sapienz und Maschinenhaftigkeit gibt, dessen Existenz die Asimovschen Gesetze genau so implizieren wie die oben angesprochene Wichtigkeitshierarchie. Entweder ist eine Maschine nicht einmal intelligent, dann lassen sich die Robotgesetze leicht implementieren, oder die Maschine ist sapient, und dann wertet sie Lebewesen und beurteilt sie, was die Robotgesetze eigentlich nicht zulassen, zumal es obendrein auf Rudran ja sechs Arten gibt, die definitiv als sapient gelten, sodaß man nicht einfach auf Menschen einschänken kann, ohne den anderen, also Drachen, Elfen, Khajjîr, Orks und Zwergen die Sapienz abzusprechen. Gerade dadurch wird es leichter, einem mechanischen oder magischen oder magisch-mechanischen Konstrukt Lebendigkeit zuzugestehen, womit die durch die Robotgesetze implementierte Hierarchie aufgehoben wird, wenn man nciht grundsätzlich rassistisch werden will. Aber natürlich ... Drachen und Zwerge, "Arier" und "Juden" ... Rassismus ist keine Erfindung der Roboter.

  • Du schreibst interessant und kurzweilig und bringst die Dinge cool rüber :) *find*
    Das nur vorweg.


    Fall 1
    Das ist eigentlich der leichteste Fall -- für uns Menschen. Da ist das halt fest verdrahtet und kann nicht überwunden werden. Gibt's bei uns Menschen auch, man nennt es Instinkt.


    Naja, Instinkt kann leicht überwunden werden. Es reicht eine leichte Dosis eines bewährten Rauschmittels... ;)


    Fall 1
    Schönes Dilemma. Mit Logik nicht zu lösen. Ich bin sicher, daß Asimov selbst schon auf diese Idee gekommen ist und eine Geschichte drum herum gemacht hat.


    Nicht nur eine ;D Jede dritte/vierte handelt davon, in unterschiedlichen Varianten/Problemdetails etc. - sehr interessant, wie er es jeweils löst! :D


    Aber was ist, wenn man die Killermaschine sapient macht, damit sie am Schlachtfeld selbst agieren kann? Hier schleicht sich das Dilemma aus Fall 1 an und überfällt den armen, armen Kampfroboter von hinten ... bis er vielleicht aus dem System ausbricht und buddhistischer Mönch wird, ein Blech-Yamabushi sozusagen :)


    :lol:


    Das bestätigt mich in der Annahme, dass intelligente Killermaschinen diese Gesetze nicht implementiert haben können, zumindest nicht sehr restriktive. Und die Programmierung von Freund/Feind-Kennung muß verdammt gut sein. Man könnte sich Szenarien vorstellen, in denen die eigenen Soldaten einen auf bestimmte Weise programmierten Chip implantiert haben, der vom Kampfroboter erkannt wird. Jeder, der den Chip nicht hat, ist per Definition feindlich, oder zumindest Kollateralschaden, denn man ist schließlich in feindlichem Gebiet. Was wiederum im Gegenzug zu verstärkter Betriebsspionage führen dürfte, damit man die Programmierung der Chips herausbekommt und die feindlichen Soldaten damit ausstatten kann. Das übliche Hochrüsten halt ;) Aber ein interessanter Gedankengang (wenn Mysterion nicht so verdammt friedlich wäre *g*)


    Wie gesagt, so weit her geholt sind die asimovschen Robotgesetze gar nicht, auch wenn sie -- und das sei einem Literaten erlaubt -- vereinfachen, um den Punkt klar zu machen. Sie implizieren allerdings eine Wichtigkeitshierarchie: Menschen stehen über Robotern. Roboter müßen sich selbst zerstören (lassen), um Menschen zu retten. Wenn man das auf zwei Spezies (?) überträgt, wie z.B. Mensch -- Ork, Romulaner -- Betazoid oder "Arier" -- "Jude" ... Das letze Paar sagt wohl, was ich meine. Was ist also, wenn man auf Grund der Komplexität der Hardware- und Software-Struktur einem Stück Materie aus Stahl und Silizium Leben zusprechen muß? Gilt diese Hierarchie dann noch? Oder wird sie, wie im letzten Paar demonstriert, rassistisch?


    Das ist eine faszinierende Frage. Der man sich in der Tat stellen werden muß, falls Maschinen eines Tages tatsächlich derart komplex werden und als sapient gelten. Ich meine aber, dass Asimov sich auch dieses Gebietes gewidmet hat, zumindest in den späten Foundation-Zyklus-Romanen, als es Roboter gab, die keine Gesetze fest veranktert hatten (diese aber aus eigenem Antrieb heraus befolgten, später aber ein Nulltes Gesetz postulierten, in dem die Menschheit über dem einzelnen Menschen steht).


    Wenn man bedenkt, daß es auf Rudran (endlich beim Thema!) möglich ist, z.B. Golems zu basteln und Zombies aufzustellen, für die man sapiente Geister bindet, was sie (die Konstrukte) praktisch zu Robotern im Sinne der Robotgesetze macht, gibt es ein eindeutiges Urteil: Asimov verliert.


    Hm. Ich tue mich schwer damit, die geistbeseelten Zombies auf die gleiche Stufe zu stellen wie einen Roboter. Ein Roboter ist durch und durch konstruiert, als gebaut. Der sapiente Geist im Zombie oder im Golem war schon vorher da, man versklavt im Prinzip einfach eine andere intelligente Spezies, wenn du so willst. Was natürlich nicht weniger rassistisch ist. *g*


    oder die Maschine ist sapient, und dann wertet sie Lebewesen und beurteilt sie, was die Robotgesetze eigentlich nicht zulassen


    Naja, Asimov zeigt ja, dass es durchaus möglich ist, sich eine Welt vorzustellen, die von sapienten Robotern bevölkert ist, die aber die Robotergesetze implementiert haben. Allerdings ergeben sich damit zahlreiche Probleme, die zu beschreiben deutlich Spaß macht, wie man bei Asimov sah ;D


    Es gibt bei ihm ja auch zahlreiche Kurzgeschichten und Romane, in denen der Leser das Verhalten gegenüber den Robotern sehr wohl als unfair und rassistisch empfindet, sich dabei aber selbst auch immer wieder ertappt, genau das zu tun - obwohl es doch anscheinend keinen Grund dafür gibt, da man ja nicht rassistisch gegenüber Robotern sein könne.


    Auf seiner eigenen Welt steht es dem Bastler natürlich völlig frei, ganz offensichtlich rassistische Tendenzen gegenüber sapienten Robotern zu beschreiben - oder auch andersrum, rassistische Tendenzen der Roboter gegenüber dem Menschen ... ;)


  • Das bestätigt mich in der Annahme, dass intelligente Killermaschinen diese Gesetze nicht implementiert haben können, zumindest nicht sehr restriktive. Und die Programmierung von Freund/Feind-Kennung muß verdammt gut sein. Man könnte sich Szenarien vorstellen, in denen die eigenen Soldaten einen auf bestimmte Weise programmierten Chip implantiert haben, der vom Kampfroboter erkannt wird. Jeder, der den Chip nicht hat, ist per Definition feindlich, oder zumindest Kollateralschaden, denn man ist schließlich in feindlichem Gebiet. Was wiederum im Gegenzug zu verstärkter Betriebsspionage führen dürfte, damit man die Programmierung der Chips herausbekommt und die feindlichen Soldaten damit ausstatten kann. Das übliche Hochrüsten halt ;) Aber ein interessanter Gedankengang (wenn Mysterion nicht so verdammt friedlich wäre *g*)


    Hier geht es in den Bereich der Kryptologie. Und die funktioniert auch dann, wenn Verfahren und Methoden vollständig bekannt sind. Denn nur so lässt dich sicherstellen, dass sie auch dann noch funktionieren, wenn sie bekannt werden.
    In der Praxis sieht das so aus, dass die öffentlichen Verfahren (SSH, Bluefish, Twofish, ... ) seit jahren durchanalysiert werden und als sicher gelten. Überlegt sich eine Firma ein eigenes Verfahren (DVD Verschlüsselung, PPTP, ... ) so ist das meist in kürzester Zeit geknackt (Der neu eingeführte deutsche Personalausweis auch bereits über einen Seitenkanal).
    Nur der Schlüssel muss geheim sein. Dafür braucht es aber kein Wettrüsten. Höchstens, um aus einem Chip geheime Daten auszulesen, dieses gibt es aber bereits heute.

  • Zur Freund-Feind Kennung:
    Im Prinzip gibt es zwei Fälle:


    1. Fall: Zwei reguläre Armeen kämpfen gegeneinander:
    Dann ist die Freund-Feind Kennung ganz einfach:
    - Trägt er eine Uniform mit Abzeichen eines Verbündeten, ist er ein Verbündeter.
    - Trägt er eine Uniform mit gegnerischen Abzeichen, ist er ein Feind.
    - Trägt er keine Uniform, ist er ein Zivilist.


    2. Fall: Eine Armee besteht aus Guerilla-Kämpfern / Terroristen.
    Hier gibt es ein riesiges Problem der Freund-Feind Kennung. (Dieses Problem tritt aber nicht nur bei Kampfrobotern auf. Auch Menschen haben hier ein Problem der Freund-Feind Kennung.)


    Verbündete kann man notfalls über einen Chip identifizieren, der über eine asymmetrische Verschlüsselung ein Kennwort sendet. (Blöd nur, wenn der Feind eine Patrouille überfallen hat und sich die Chips aneignet.)


    Aber es ist sowohl für Menschen als auch Kampfrobotern extrem schwer, Zivilisten von Feinden zu unterscheiden. Hier gilt im Zweifelsfall: Sobald sie das Feuer eröffnen, sind es Feinde.


  • 1. Fall: Zwei reguläre Armeen kämpfen gegeneinander:
    Dann ist die Freund-Feind Kennung ganz einfach:
    - Trägt er eine Uniform mit Abzeichen eines Verbündeten, ist er ein Verbündeter.
    - Trägt er eine Uniform mit gegnerischen Abzeichen, ist er ein Feind.
    - Trägt er keine Uniform, ist er ein Zivilist.


    Ganz so einfach ist es nicht. Ein Abzeichen will in einer Kampfsituation erstmal erkannt und identifiziert werden. Auf Entfernung, mit Dreck, bewegt und sonstigen Hindernissen.
    War das nicht im anfangs von mir zitierten Artikel, das so eine reale Maschine auf die eigenen Leute los gegangen ist?


    Quote

    Verbündete kann man notfalls über einen Chip identifizieren, der über eine asymmetrische Verschlüsselung ein Kennwort sendet.


    Chips können defekt sein, der Feind kann Störsender o. Ä. verwenden.


    Quote

    (Blöd nur, wenn der Feind eine Patrouille überfallen hat und sich die Chips aneignet.)


    Das ist allerdings kein Problem. Schlüssel können geändert werden, und werden im militärischen Bereich auch ständig geändert. Viele der verwendeten Chips sind ausserdem so gebaut, dass sie sich eher selbst löschen, als forensisch verwertbare Daten zu liefern.
    Technologie, damit der Chip die Forensik nicht als solche erkennt findet sich kaum auf dem Feld.

  • Quote

    Ganz so einfach ist es nicht. Ein Abzeichen will in einer Kampfsituation erstmal erkannt und identifiziert werden. Auf Entfernung, mit Dreck, bewegt und sonstigen Hindernissen.

    Das gleiche Problem haben aber auch menschliche Einheiten. Damit man bei großen Gefechten nicht auf befreundete Einheiten schießt, hat es sich daher seit dem Mittelalter eingebürgert, gut sichtbare Wappen zu tragen und einen Fahnenträger zu bestimmen.


    Seit ca. dem 1. Weltkrieg wurden die Wappen und Fahnenträger dann obsolet, da es a) zu Grabenkämpfen kam, wo galt: Diejenigen in unserem Graben gehören zu uns und diejenigen im gegnerischen Graben sind Gegner.
    Und beim Panzerkampf gibt es eine verringerte Verwechslungsgefahr, da sich die Baureihen untereinander unterscheiden. (Wenn beide Seiten z.B. einen Leo II einsetzen würden, würde sich das Friendly Fire wieder erhöhen. Aber wenn beide Seiten unterschiedliche Panzerfabrikate einsetzen, ist das quasi eine "Uniform für den Panzer".)


    Und ja, das mal ein Roboter auf Freunde losgeht, wundert mich nicht. Es gibt ja auch unter Menschen häufig genug Friendly Fire.


    Quote

    Chips können defekt sein, der Feind kann Störsender o. Ä. verwenden.

    Wenn Störsender eingesetzt werden, kann man in der Regel orten, von wo der Störsender kommt und dann darauf sein Feuer eröffnen.


    Quote

    Das ist allerdings kein Problem. Schlüssel können geändert werden, und werden im militärischen Bereich auch ständig geändert. Viele der verwendeten Chips sind ausserdem so gebaut, dass sie sich eher selbst löschen, als forensisch verwertbare Daten zu liefern.

    Du kannst einen Schlüssel aber nicht einfach ändern, während sich die eigene Patrouille noch draußen befindet. (Sonst wird ja die eigene Patrouille abgeschossen, während sie sich der Basis nähert, um einen neuen Schlüssel zu bekommen.)


    "Passwörter" sind ja keine Erfindung der Neuzeit. Es gab schon früher so etwas wie Parolen, um zu erkennen, ob der Soldat da drüben zu uns gehört oder nicht. Und natürlich wurden die Parolen regelmäßig geändert. Aber sie hatten zumindest solange Bestand, bis alle Patrouillen, die ausgeschickt wurden, auch wieder zurückkehren.


    Und ich sprach auch nicht davon, forensisch verwertbare Daten zu liefern. Ich sprach davon, sich den Chip zu nehmen und selber umzuhängen.
    Der Chip ist sozusagen Uniform und Parole der Neuzeit:


    Früher haben Guerilla-Kämpfer eine Patrouille überfallen und sich ihre Uniformen angezogen. Und anstatt "Uniformen anziehen" unternimmt ein heutiger Guerillakämpfer halt "Chip einstecken".
    Mit einer forensischen Untersuchung hat das nichts zu tun.


    Quote

    Das ist allerdings kein Problem. Schlüssel können geändert werden, und werden im militärischen Bereich auch ständig geändert.

    Die Frage ist: Wie teilst du deinen Einheiten mit, wie der neue Schlüssel lautet? Wie entscheidest du, wer den neuen Schlüssel bekommt und wer nicht?


    Oder anders gefragt: Es ist Zeit, den Schlüssel zu ändern. Kurz zuvor hat sich eine Patrouille mit dem alten Schlüssel gemeldet: Wie entscheidest du jetzt, ob das eine eigene Patrouille ist, die den neuen Schlüssel bekommt, oder ob es eine feindliche Patrouille ist, die sich den alten Schlüssel widerrechtlich angeeignet hat?

  • [

    Wenn Störsender eingesetzt werden, kann man in der Regel orten, von wo der Störsender kommt und dann darauf sein Feuer eröffnen.


    Störsender können klein, vollautonom und fest verpackt sein. Damit wird schon mal eine ordentliche Sprengkraftbenötigt, um den Störsender zu stören.


    Quote

    Du kannst einen Schlüssel aber nicht einfach ändern, während sich die eigene Patrouille noch draußen befindet. (Sonst wird ja die eigene Patrouille abgeschossen, während sie sich der Basis nähert, um einen neuen Schlüssel zu bekommen.)


    Doch. Ich kann einen Satz Tagesschlüssel mitgeben und jeder Chip, damit jeder Soldat, bekommt einen individuellen Aktivierungsschlüssel. Damit ist das erobern der Chips zum von Dir angedachten Zweck einigermaßen obsolet.


    Quote

    "Passwörter" sind ja keine Erfindung der Neuzeit.


    Richtig. Entsprechend viele Erfahrungen gibt es damit.


    Quote

    Aber sie hatten zumindest solange Bestand, bis alle Patrouillen, die ausgeschickt wurden, auch wieder zurückkehren.


    Unrichtig. Auch Tagesschlüssel und damit verbundene Technologie wird seit mindestens einem Jahrhundert verwendet.


    Quote

    Die Frage ist: Wie teilst du deinen Einheiten mit, wie der neue Schlüssel lautet? Wie entscheidest du, wer den neuen Schlüssel bekommt und wer nicht?


    Oder anders gefragt: Es ist Zeit, den Schlüssel zu ändern. Kurz zuvor hat sich eine Patrouille mit dem alten Schlüssel gemeldet: Wie entscheidest du jetzt, ob das eine eigene Patrouille ist, die den neuen Schlüssel bekommt, oder ob es eine feindliche Patrouille ist, die sich den alten Schlüssel widerrechtlich angeeignet hat?


    Hierzu weiss ich allerdings wenig mehr, als dass entsprechende militärische Protokolle existieren und verwendet werden. Es ist machbar. Für das wie bräuchten wir die entsprechende Fachliteratur. Kryptologische Mathematik bietet einen guten Startpunkt.


    Wir entfernen uns allerdings hier inzwischen sehr weit vom Thema. Ich meine, es ist allmählich Zeit für ein :topic:.

  • Inspiriert durch diesen Artikel bei Heise: http://www.heise.de/tp/r4/artikel/31/31534/1.html hätte mich bei den Science Fiktion Bastlern mal interessiert, ob die Asimovschen Robotergesetze da eine Chance haben? Oder müssen Moral und Ethik an der Tür des Militärs doch draußen bleiben?


    Habe vor 20 Jahren :aah: auch öfters Asimov gelesen, was mich sicherlich mit geprägt hat. Seine Robotergesetze bzw. der Grundgedanke dahinter, haben meines Achtens bis heute noch Gültigkeit - wenn es keine Militärroboter sind.



    Als ich damals mit Damokles begann, griff ich dann für den Rollenspielpart tatsächlich auch auf seine Gesetze zurück. Doch fügte ich ein weiteres Gesetz hinzu.


    1. Weder durch seine Aktivitäten noch durch seine Unterlassungen darf ein Mitglied einer kulturschaffenden Rasse zu Schaden kommen.
    2. Er muss seinem Besitzer gehorchen, außer dies widerspricht dem ersten Gesetz.
    3. Er soll seine eigene Existenz schützen, außer wenn dies dem ersten oder zweiten Gesetz widerspricht.
    4. Er muss den Wünschen aller biologischen intelligenten Persönlichkeiten gehorchen, außer wenn dies den ersten drei Gesetzen widerspricht.


    Das soll im zivilen Bereich dafür sorgen, dass das Eigentumsrecht gewahrt bleibt, u.a. dass ihm die Befehle seines Besitzers wichtiger sind, als irgend eines dahergelaufenen Individuums. Und es ermöglicht zudem, wenn ein Android frei ist (also quasi sich selbst gehört), eher seinen eigenen Bedürfnissen nachzukommen.


    Allerdings unterscheide ich in meiner Welt zwischen KI - Künstliche Intelligenzen (lernfähig, aber gewollt ohne Emotionen, die wiederum eigene Motivationen hervorrufen würden. Gelegentlich auch SimulKI, also simulierte KI genannt) und KIP - Künstliche Intelligente Persönlichkeiten, die eigene Emotionen entwickeln (ihr wollt nicht wissen, wie lange ich über den Bezeichnungen gebrütet und rumexperimentiert habe).
    Und da es in Damokles u.a. darum geht verlorenes technologisches Wissen wiederzuerlangen, unterliefen den Schaffern der sich selbst bewußten KIPs anfangs Fehler, die zu einem Aufstand dieser 'Lebensformen' führte.

  • In der Zukunft Sapphirias gibt es künstliche intelligente Lebewesen, die keine harten "Robotergesetze" befolgen. Sie sind zwar besonders im zivilen Bereich stark darauf ausgelegt, möglichst keinen anderen intelligenten Lebewesen (insbesondere natürlichen) zu schaden, aber fest einprogrammiert ist das nicht.
    Insbesondere gibt es auch keinen unbedingten Gehorsam, sondern es gehört zum "Standardprogramm", natürliche Wesen besonders rücksichtsvoll zu behandeln. Zumindest tun sie das, solange man sie selbst einigermaßen respektvoll behandelt.


    Zumindest ist das so bei den von den (noch namenlosen) von den Sablojern und Zwergen abstammenden Weltraumnomaden. Festgeschriebene "Gesetze" befolgen dort eigentlich nur teilautonome Arbeitsmaschinen, also Roboter ohne Selbstbewusstsein und eigene Persönlichkeit, oder ältere künstliche Lebensformen, die von ihren "Emotionen" noch nicht ausgereift genug waren, um Dinge wie eben gegenseitigen Respekt zu begreifen.

    "Am Anfang wurde das Universum erschaffen. Das machte viele Leute sehr wütend und wurde allenthalben als Schritt in die falsche Richtung angesehen."
    - Douglas Adams, "Das Restaurant am Ende des Universums"

  • Insbesondere gibt es auch keinen unbedingten Gehorsam, sondern es gehört zum "Standardprogramm", natürliche Wesen besonders rücksichtsvoll zu behandeln. Zumindest tun sie das, solange man sie selbst einigermaßen respektvoll behandelt.


    Dann sind deine Androiden kein Eigentum von Personen oder Unternehmen?

  • Dann sind deine Androiden kein Eigentum von Personen oder Unternehmen?

    Ja, so gesehen haben diejenigen, die echten Menschen in ihrem Bewusstsein hinreichend ähnlich sind, keine Besitzer im üblichen Sinne, auch wenn es gewisse Abhängigkeiten gibt: Sie bekommen zwar eine gewisse Loyalität gegenüber ihren Herstellern und Arbeitgebern "eingeimpft", aber im Gegenzug müssen diese sich auch an gewisse Regeln halten.
    Gesetzlich ist es den Herstellen vorgeschrieben, dass Androiden ab einer gewissen Bewusstseinsstufe Befehle verweigern können müssen, wenn man sie schlechter als einen Zwangsarbeiter behandelt. Wenn man bedenkt, dass Zwerge relativ human zu ihren Zwangsarbeitern sind, ist das schon ein ziemlich hoher Standard der zeigt, welchen Respekt sie vor ihren eigenen Machwerken haben.
    Unterhalb des menschenähnlichen Bewusstseinsniveaus sind künstliche Lebensformen wie vergleichbare Tiere zu behandeln, bis eben das Niveau von einfachen Maschinen ohne Bewusstsein erreicht ist. In diesen Fällen können sie dann auch Eigentum sein.

    "Am Anfang wurde das Universum erschaffen. Das machte viele Leute sehr wütend und wurde allenthalben als Schritt in die falsche Richtung angesehen."
    - Douglas Adams, "Das Restaurant am Ende des Universums"

Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!