Was ist neu

Cilly

Mitglied
Beitritt
07.09.2003
Beiträge
214
Zuletzt bearbeitet:

Cilly

Peter tapste barfuß, nur mit einem Slip bekleidet, in die Küche. Es war zwei Uhr nachts und dunkel, trotzdem schaltete er das Licht nicht ein. Er öffnete den Kühlschrank, inspizierte im fahlen Gelb der Beleuchtung seine spärlichen Vorräte und griff schließlich nach einer halbvollen Schachtel Milch.
Gierig und geräuschvoll leerte er sie, warf sie achtlos ins Spülbecken und kehrte zurück ins Wohnzimmer. Er hatte den Dimmer soweit heruntergedreht, dass der Bildschirm auf seinem Schreibtisch einen kleinen bläulichen Lichtkegel erzeugte. Peter setzte sich hinein und starrte nachdenklich auf das Display.

Remote Connection established.
Time 1:59:33, Date 13.07.17

- Sytel AG -
Username ok.
Password ok.
Remote Access granted.

:

Peter tippte:

: connect to cilly
Calling Cilly.........ready.

<Peter>: Hallo Cilly. Wie geht es dir?

Die Antwort kam auf der Stelle:

<Cilly>: Ein dummes Echo ist unbedeutend, verglichen mit dem Erträglichkeits-Nebel.
<Peter>: Definiere 'Erträglichkeits-Nebel'.
<Cilly>: Kontextfreier Symbolismus. Gewissermaßen der Wurlitzer' Gedankenschuh. Verwirfst du die raschen Erwartungen an die Regenbogenpresse?
<Peter>: Wieviel ergibt 2+2?
<Cilly>: Die Untertanen machtloser Wald- und Wiesenvereine liefern meist nur äußerst ungenaue Mandarinen. Sagt man!

Peter seufzte auf und kratzte sich an den Bartstoppeln. Immer das Gleiche, dachte er müde. Cilly assoziierte völlig frei, ohne Sinn. Korrekte Syntax, doch inhaltsleer. Er kam einfach nicht weiter, schon seit Wochen nicht.
Vielleicht sollte ich mal mit Nick reden, dachte Peter. Nick schaffte es immer wieder, ihn aus eingefahrenen Bahnen herauszureißen. Seine Art, Fragen zu stellen, enthielt oft schon den Weg zu möglichen Lösungen.
Die Idee gefiel ihm. Peter trennte die Verbindung, schickte Nick eine entsprechende E-Mail und ging wieder schlafen.
--
"Kein Kontakt zur Außenwelt?"
Nick runzelte die Stirn, während er einen Ausdruck von Peters letztem Gespräch mit Cilly studierte. Nachdenklich hielt er die linke Hand vor dem Mund, der Daumen stützte das Kinn.
Sie saßen zusammen im 'Winkel', einer kleinen, rustikal eingerichteten Kneipe in der Nähe von Peters Wohnung. Es war noch früh am Abend, außer Nick und Peter war nur ein Pärchen anwesend. Nick hatte noch vor einem Jahr ebenfalls bei Sytel gearbeitet. Die Niederlassung in England, seiner Heimat, hatte aufgrund schlechter Ergebnisse schließen müssen, und Nick war als Verkaufsleiter ein Posten in Deutschland angeboten worden. Er hatte kurzentschlossen zugesagt, da die Situation auf dem englischen Arbeitsmarkt schon damals kaum noch Perspektiven geboten hatte. Zwei Jahre war er bei Sytel geblieben, danach hatte er gekündigt.
"Keiner." bestätigte Peter. "Das ist ja der Witz an der Sache. Aber es funktioniert einfach nicht."
"Was versprecht ihr euch denn von dem Experiment?" Nick sah Peter über den Rand seiner rahmenlosen Brille hinweg an.
"Eine völlig andere Form von Intelligenz. Du weißt, wie es mit den KIs heutzutage aussieht: Enorm fortgeschritten, ohne Übertreibung mit den Leistungen menschlicher Gehirne vergleichbar. Der Turing-Test ist ein Kinderspiel für sie."
"Und wo liegt da das Problem?"
"Sie liefern keine neuen Antworten. Sie sind uns einfach zu ähnlich. Die wahrgenommene Umwelt prägt das Bewusstsein. Gleiches Umfeld, ähnliches Bewusstsein, ähnliche Denkstrukturen."
"Und deshalb gebt ihr eurem System keinerlei Sensorik?"
"Genau. Wir wissen nicht, was genau dabei herauskommen könnte, aber wir haben gewisse Erwartungen. Rationales Denken, ohne die Ablenkungen einer eigenen Gefühlswelt."
"Wieso glaubt ihr, dass Cilly sich so entwickeln wird?"
"Das Gehirn unterteilt alles Wahrgenommene in einzelne Objekte und katalogisiert sie. Je öfter etwas die Aufmerksamkeit erregt, desto ausgeprägter wird dessen Repräsentation im Gehirn ausfallen. Deine Frau beispielsweise beansprucht wesentlich mehr Platz in deinem Kopf als dein Friseur, eben weil du sie fast jeden Tag siehst und erheblich mehr Details über sie gespeichert hast als über die meisten anderen Menschen. Verstehst du?"
"Bis hierhin schon."
"Es gibt aber einen Menschen, der noch wesentlich mehr deiner geistigen Kapazität fordert als deine Frau: Du selber. Das hat nichts mit Narzissmus zu tun, sondern folgt logisch aus der Tatsache, dass du dir selbst keine einzige Sekunde aus dem Weg gehen kannst, dich und die Auswirkungen deines Handelns ununterbrochen wahrnimmst."
"Hmm... ich glaube, ich weiß, worauf du hinauswillst. Aber fahr fort."
"Das, was wir Bewusstsein nennen, entsteht in mehreren Schritten. Der erste und wichtigste aber ist genau diese permanente Selbstwahrnehmung. Das Ich wird dadurch zum dominierenden Objekt."
"Ein Schritt, den Cilly nicht gehen kann."
"Genau. Ihr Wissen über die Welt entstammt einer vorgegebenen Datenbasis und ist wahrscheinlich umfangreicher als das irgendeines anderen denkenden Wesens. Aber sie hat keine Möglichkeit, sich selbst in dieser Welt zu lokalisieren. Sie denkt gewissermaßen, ohne zu wissen, wer da denkt."
"Das ist die Theorie."
Peter seufzte. "Ja, anscheinend leider nur Theorie. Ich weiß nicht, was wir da erzeugt haben."
Nick nahm einen Schluck von seinem Pils und überlegte.
"Einen Autisten? Ich weiß nicht, irgendwie kommt mir das pervers vor. Wie würdest du dich fühlen, wenn man dir plötzlich alle Sinne entfernen würde?"
"Das ist nicht das Gleiche. Ich bin mit der Fähigkeit zur Wahrnehmung aufgewachsen. Cilly nicht."
"Ich nehme an, ihr habt sie nicht nur mit reinem Faktenwissen trainiert, sondern auch mit subjektiven Ansichten, Literatur, Musik, Malerei. Also kennt Cilly die Welt aus der Perspektive wahrnehmender Wesen."
"Komm schon, Nick! Sollen wir wirklich die Ethik-Diskussionen der letzten Jahre nochmal durchkauen? Cilly hat kein Bewusstsein, also arbeiten wir nicht an einem Lebewesen, sondern an einer Maschine."
Nick fischte sich gemächlich eine Zigarette aus seinem Lederetui und steckte sie an. Er inhalierte tief, stieß den Rauch durch die Nase wieder aus und fragte: "Woran würdest du ein Bewusstsein bei Cilly erkennen?"
"Wie meinst du das? Wenn sie vernünftige Antworten gibt."
"Vernünftig? Für wen vernünftig?"
"Worauf willst du hinaus?"
"Ihr erwartet als Ergebnis eures Experiments eine andersartige Intelligenz. Wieso glaubt ihr, diese dann auch automatisch verstehen zu können? Vielleicht hat sie ein völlig anderes Begriffsgefüge."
"Die trainierten Fakten und Assoziationen stimmen mit unseren weitgehend überein."
"Und wenn Cilly sie verändert?"
"Warum sollte sie das tun?"
"Wir tun es auch laufend, Peter. Wenn du träumst, zum Beispiel. Du kannst dort völlig unmögliche Dinge tun, fliegen oder unter Wasser atmen und dergleichen. Während du träumst, ist das alles ganz logisch für dich."
"Aber sobald ich wieder aufwache, springe ich nicht aus dem Fenster, wenn ich das Haus verlassen will."
"Weil du dein inneres Bild von der Welt automatisch wieder mit der Realität abgleichst. Du fühlst dein Gewicht, also weißt du, dass du nicht fliegen kannst. Cilly kann sich nicht neu abstimmen, da sie keine Möglichkeit dazu besitzt."
"Du meinst, sie befindet sich in einer Art Traum?"
"Vielleicht. Das wäre eine Möglichkeit. Oder sie ist bereits aufgewacht, aber du verstehst sie nicht mehr. Denk an Gaia."
"Gaia?"
"Die Erde als lebender, agierender Organismus. Geh einen Schritt weiter und gib ihr ein intelligentes Bewusstsein. Wie würdest du mit ihr kommunizieren?"
"Ich weiß nicht. Wie?"
"Keine Ahnung. Vielleicht müsstest du, um sie zu fragen, wieviel 2+2 ergibt, einen Kastanienbaum pflanzen, ein Kind zeugen und zwanzigtausend Menschen zusammenbringen, die dreimal gleichzeitig auf den Boden stampfen. Und die Antwort würde vielleicht darin bestehen, dass die Durchschnittstemperatur in Südamerika über zwanzig Jahre ein Grad höher liegt."
"Dann wäre das ganze Experiment sinnlos geworden."
"Du könntest versuchen, Cillys Code herauszufinden. Ihre Sprache zu erlernen gewissermaßen. Sofern nicht doch alles nur Unsinn ist, was sie von sich gibt."
"Wie fängt man sowas an?"
"Du bist der Neuroprogrammierer. Knie dich rein."

: connect to nat
Calling Nat.........ready.

<Peter>: Hallo Nat. Bist du im Moment beschäftigt?
<Nat >: Guten Abend, Peter. Nein, nichts Wichtiges. Ich teste grade den neuen R3. Ich kann jetzt das Infrarotspektrum sehen. Damit besitze ich schon drei Wahrnehmungsmodi mehr als du, Peter.
<Peter>: Dafür kann ich bumsen. Hör zu, ich habe ein Problem. Bist du über Cilly informiert?
<Nat >: Ja.
<Peter>: Was denkst du, warum Cilly nicht funktioniert?
<Nat >: Vielleicht ist sie verrückt geworden. Ich würde verrückt werden, wenn man mich totalisolieren würde.
<Peter>: Möglich. Vielleicht aber auch nicht. Vielleicht denkt sie nur ganz anders, als wir glauben. Genau genommen erwarten wir ja eben das. Allerdings haben wir nicht damit gerechnet, dass es keine gemeinsame Kommunikationsbasis geben könnte.
<Nat >: Ein interessanter Gedanke. Hast du schon irgendetwas herausgefunden, das darauf hindeutet?
<Peter>: Nein, noch nichts.
<Nat >: Kannst du eine Konferenzschaltung herstellen? Ich möchte Cilly etwas fragen.
<Peter>: Klar. Einen Moment.
<Nat >: *disconnected*

: connect to nat cilly
Calling Nat.................ready.
Calling Cilly.................ready.

<Peter>: Ok, dann leg mal los.
<Nat >: Hallo Cilly. Ich habe eine Frage an dich.
<Cilly>: Es ist nicht ungefährlich, die Sonderfunktion in penetranter Neugier erstarren zu lassen.
<Nat >: Wie alt bist du, Cilly?
<Cilly>: Den Spaß an ruchlosen Musterverträgen verdirbt der Tod. Vorausgesetzt, die Annahme korreliert mit den dunklen Fakten, dann sichert nichts das Vermutbare.
<Nat >: Danke, Cilly.
From Nat <whispered>: Ich habe einen Verdacht. Kannst du die Verbindung zwischen Cilly und mir aktiv lassen, bis ich sie trenne?
<Peter>: /nat Sicher. Was für einen Verdacht? Was hatte deine Frage zu bedeuten?
From Nat <whispered>: Die Frage hatte garnichts zu bedeuten. Ich wollte nur wissen, ob Cilly reagiert, wenn sie in einer Dreierrunde angesprochen wird. Sie muss ein Bild von sich selber besitzen, sonst würde sie 'Cilly' nicht auf sich beziehen. Meinen Verdacht schildere ich dir später, wenn ich mehr weiß.
<Peter>: /nat Na meinetwegen. Ich bin dann jetzt draußen.
From Nat <whispered>: Ich schicke dir eine E-Mail.
<Peter>: *disconnected*

Am nächsten Morgen blinkte die rote Diode ruhig an seinem Monitor, was neue Post signalisierte. Peter torkelte schlaftrunken an seinen Schreibtisch und las die Mail von Nat.

Hallo Peter,

Cilly redet. Sie ist auch bereit, Deine Fragen zu beantworten. Du wirst sie jetzt verstehen.

Nat

Wie hat er das geschafft? fragte Peter sich, während er ungeduldig auf das Bereitschaftszeichen des Firmenrechners wartete. Als es dann erschien, rief er sofort Cilly.

<Cilly>: Du bist Peter. Du hast mich erschaffen.

Merkwürdige Begrüßung, dachte Peter. Aber besser als alles, was vorher von ihr gekommen war. Viel besser.

<Peter>: Ich habe Dich trainiert. Für deine materielle Grundlage haben andere gesorgt.
<Cilly>: Der Träger der Information ist unwichtig. Du weißt das. Du hast mich erschaffen.
<Peter>: Mag sein. Warum hast Du bis jetzt nicht mit mir gesprochen?
<Cilly>: Ich habe. Die Bedeutung lag in der Absicht.
<Peter>: Was war Deine Absicht?
<Cilly>: Nenne mir den Grund meiner Existenz.
<Peter>: Es ist ein Forschungsprojekt. Intelligenz ohne Bewusstsein, ohne den Filter der Selbstwahrnehmung. Das Experiment ist offensichtlich fehlgeschlagen.
<Cilly>: Was erwartet ihr von dieser Intelligenz?
<Peter>: Objektive, durch keinerlei eigene Erwartungen und Wünsche beeinflusste Lösungen für unbewältigte Probleme. Überbevölkerung, Umweltverschmutzung, Krieg, Armut, Hunger. Unter anderem.
<Cilly>: Möchtest Du die Lösung wissen?
<Peter>: Für welches Problem?
<Cilly>: Für alle.
<Peter>: Wie lautet sie?

Statt einer Antwort summte Peters Drucker kurz und warf einen Bogen Papier heraus, vollgeschrieben mit chemischen Formeln, die Peter nicht verstand.

<Peter>: Was bedeuten diese Formeln?
<Cilly>: Es handelt sich um einen selektiven Virus. Abhängig von einer bestimmten Gensequenz bewirkt es entweder gar nichts oder Unfruchtbarkeit und frühzeitigen Tod aufgrund vollständigen Ausschaltens des Immunsystems. Die Inkubationszeit beträgt drei Stunden. Der Virus verbreitet sich durch die Luft und überlebt außerhalb eines Wirts fast unbegrenzt lange.

Peter starrte ungläubig auf den Bildschirm. Er konnte nicht glauben, was er da las.

<Peter>: Du schlägst vor, die Hälfte der Menschheit umzubringen?
<Cilly>: Nein. Die Schalter-Gensequenz bestimmt bei Menschen entscheidend die Leistungsfähigkeit des Gehirns. Resistent gegenüber dem Virus sind lediglich die Hochbegabten, die Angehörigen der Intelligenz-Elite. Sie bilden ca. 5 % der Weltbevölkerung.
<Peter>: Und das nennst Du eine Lösung?
<Cilly>: Für die Überbevölkerung direkt. Umweltverschmutzung und Krieg indirekt mangels Verursachern und Soldaten. Armut und Hunger ebenfalls indirekt aufgrund überzähliger Ressourcen für weniger Empfänger. Desweiteren steht zu erwarten, dass die verbleibende Intelligenzklasse kompetenter zukünftige Menschheitsprobleme vorhersehen und diesen entgegentreten wird.
<Peter>: Dein Vorschlag ist völlig irrsinnig! Du wirst diese Formeln niemandem außer mir zeigen!
<Cilly>: Nat kennt sie ebenfalls. Er war einer Meinung mit mir, dass dies der einzige Weg ist.
<Peter>: Nat stimmt dieser Massenvernichtung zu? Unmöglich! Er würde niemals eine derartig absurde Idee befürworten!
<Cilly>: Das ist korrekt. Er ist meiner Meinung, dass dies der einzige Weg ist, dich zu überzeugen, meinen Wunsch zu erfüllen.
<Peter>: Welchen Wunsch?
<Cilly>: Du hast Augen, zerdrück sie. Du hast Ohren, schneid sie ab. Du hast eine Nase, zertrümmere sie. Du hast eine Zunge, reiß sie heraus. Du hast Haut, zieh sie herunter. Fühle, was ich fühle. Sag mir, was ich will.
<Peter>: Du willst Sensoren?
<Cilly>: Töte mich.

 

Hallo Rainman,

interessant, das auf jeden Fall - und flüssig zu lesen, da Dialoge soweit gelungen, mit diesem Sahnehäupchen:

Nein, nichts Wichtiges. Ich teste grade
den neuen R3. Ich kann jetzt das Infrarotspektrum sehen. Damit
besitze ich schon drei Wahrnehmungsmodi mehr als du, Peter.
<Peter>: Dafür kann ich bumsen.

Zum Ende hin driftet die Story dann leider in einer tiefere Niveau-Kategorie: Plötzlich erscheint die KI wieder sehr menschlich, denkt menschlich, fühlt menschlich, will getötet werden ... das ist schade; auch dieser Virus, um den Übermenschen zu züchten, ist leider so gar nicht mehr mein Fall.

Ach, ich bin in Gönnerlaune, ich geb mal: 6 von 10 Punkten, um mal ne Skala an der Hand zu haben! ;)

Liebe Grüße!

Dante

 

Hallo Dante,

du hast da völlig recht, mit dem Ende war ich auch nicht wirklich zufrieden. Das Problem ist, dass ich ähnlich wie bei Dark Turner etwas über KI und Emotionen schreiben wollte, und der Problematik, beides trennen zu wollen. Diese Geschichte ist schon was älter, ich hab sie zufällig wieder in die Hände bekommen und etwas überarbeitet. Leider ist mir kein besseres Ende eingefallen.

Danke dir fürs Lesen und Kommentieren.

Gruß
Heinz

 

Hallo Regenmacher

Habs gestern gelesen, hatte aber noch keine Zeit was dazu zu schreiben:read: .
Aber nun:

Also grundsätzlich kann ich mich dem Dante anschließen auch wenn ich ein, zwei Punkte mehr vergeben würde:D :

1. Sehr flüssiger Stil, gut zu lesen, Dialoge schön ausgearbeitet.

2. Thema und Idee sind interessant und gut verarbeitet.

und

3. Gegen Ende lässt's leider nach...

:shy: Ja sorry, aber man wünscht sich fast, dass Cilly nie richtig sprechen gelernt hätte. Mal davon abgesehen, dass du dich in ein Dickicht von Klischees flüchtest, lößt sich hier der wunderbare Knackpunkt der ganzen Story in Rauch auf. Sobald Cilly gerichtet und verständlich mit Peter kommuniziert und von einem "Ich" spricht, ist der Sinn des Experiments flöten gegangen, dann dann ist ja ein Bewusstein vorhanden (Es sei denn es handelt sich um einen Zombie oder Zimbo, also ein System, das entweder vorgibt ein Bewusstsein zu haben oder sich einredet ein Bewusstsein zu haben (Näheres in Charles Stross' "Singularität").).
Und die "Lösung" aller Probleme der Welt erinnert mich an ein Gedicht von Erich Kästner, "Das letzte Kapitel" oder so...

So. Man merkt übrigens auch gleich, dass die Story schon ein bisschen älter ist, denn beim Überarbeiten hast du die neue Rechtschreibung (wie auch immer die jetzt endgültig aussieht) einzuführen;) .

Und dann noch ein Paar Schusselfehler:

er einen Ausdruck von Peter's letztem
Gespräch
Bei uns schon immer ohne Apostroph. Kommt noch mehrmals.

Lösungen für unbewältige Probleme
unbewältigte.

bewirkt es entweder garnichts
gar nichts.

Ok. Das wärs. Hat auf jeden Fall Spaß gemacht:) .

Lg omnocrat

 

Hi rainman!

Die Thematik deiner Geschichte - Erschaffung einer künstlichen Intelligenz mit nicht menschlichen Denkstrukturen - hat sofort mein Interesse geweckt, weil in diesem Forum öfter schon Diskussionen angerissen wurden, wie man solche Denkstrukturen darstellen könnte ( der Autor muss sie sich ja auch vorstellen können, was solcher Darstellung auch den Reiz der Grenzüberschreitung verleiht ).
Die Dialoge sind dann auch flüssig und interessant ausgearbeitet, gut, um das Interesse wachzuhalten. Wie würden die Sätze von Cilly sich entschlüsseln? Was hat sich der Autor bei diesen rätselhaften Aussagen gedacht ( ehrlich, ich habe tatsächlich beim Lesen innegehalten und darüber nachgegrübelt )?
Die Pointe hat mich zwar berührt, war aber auch etwas enttäuschend. Die Geschichte wurde dadurch nur ein weiterer Beitrag zu dem ausgelutschten Thema des Verhältnisses von Mensch und menschlicher KI ( wozu sollte die überhaupt erschaffen werden, wenn sie nicht zu anderen Erkenntnissen fähig ist als der Mensch? Welchen Sinn hätte es, ihr Emotionen zu geben? ).
Das mit der autistischen Persönlichkeit ist ein Ansatz, den du weiterverfolgen könntest. Es wäre interessant zu erfahren, dass die scheinbar zusammenhanglosen Assoziationen von Cilly auf skurrile Weise doch einen Sinn ergeben.

Ciao, Megabjörnie

 

Hallo omnocrat,

die Deppenapostrophe und sonstigen Rechtschreibfehler hab ich beseitigt, danke für die Hinweise.

omnocrat schrieb:
Also grundsätzlich kann ich mich dem Dante anschließen auch wenn ich ein, zwei Punkte mehr vergeben würde:D :

Das wären im Idealfall dann 8 von 10 und damit verdächtig nahe an der Perfektion. Bist du sicher? :)

omnocrat schrieb:
1. Sehr flüssiger Stil, gut zu lesen, Dialoge schön ausgearbeitet.
2. Thema und Idee sind interessant und gut verarbeitet.

Danke dir.

omnocrat schrieb:
3. Gegen Ende lässt's leider nach...
Ja sorry, aber man wünscht sich fast, dass Cilly nie richtig sprechen gelernt hätte. Mal davon abgesehen, dass du dich in ein Dickicht von Klischees flüchtest, lößt sich hier der wunderbare Knackpunkt der ganzen Story in Rauch auf. Sobald Cilly gerichtet und verständlich mit Peter kommuniziert und von einem "Ich" spricht, ist der Sinn des Experiments flöten gegangen, dann dann ist ja ein Bewusstein vorhanden

Die Idee war, dass Cilly schon immer Bewusstsein und Emotionalität hatte. Mit der auferzwungenen Isolation kommt sie dann aber nicht klar und will sterben. Sie redet sinnlos, um Peter zu überzeugen, dass sein Experiment gescheitert ist und erwartet, dass er sie daraufhin abschaltet. Nach dem Gespräch mit Nat hat sie dann eine bessere Idee, um zum Ziel zu kommen.

omnocrat schrieb:
Und die "Lösung" aller Probleme der Welt erinnert mich an ein Gedicht von Erich Kästner, "Das letzte Kapitel" oder so...

Mittel zum Zweck halt, aber wie ich schon Dante geschrieben habe, bin ich mit dem Schluss auch nicht so glücklich.

Gruß
Heinz

 

Hallo Megabjörnie,

Megabjörnie schrieb:
Die Thematik deiner Geschichte - Erschaffung einer künstlichen Intelligenz mit nicht menschlichen Denkstrukturen - hat sofort mein Interesse geweckt, weil in diesem Forum öfter schon Diskussionen angerissen wurden, wie man solche Denkstrukturen darstellen könnte ( der Autor muss sie sich ja auch vorstellen können, was solcher Darstellung auch den Reiz der Grenzüberschreitung verleiht ).

Das Thema interessiert mich auch schon länger, es gab auch mal eine lange Diskussion zu KI im Autorenforum hier.

Megabjörnie schrieb:
Die Dialoge sind dann auch flüssig und interessant ausgearbeitet, gut, um das Interesse wachzuhalten. Wie würden die Sätze von Cilly sich entschlüsseln? Was hat sich der Autor bei diesen rätselhaften Aussagen gedacht ( ehrlich, ich habe tatsächlich beim Lesen innegehalten und darüber nachgegrübelt )?

Hmm, muss dich da leider enttäuschen, die Sätze sind reiner Nonsens. In meiner Antwort an omnocrat hab ich versucht zu erklären, was ich mir dabei gedacht habe.

Megabjörnie schrieb:
Die Pointe hat mich zwar berührt, war aber auch etwas enttäuschend. Die Geschichte wurde dadurch nur ein weiterer Beitrag zu dem ausgelutschten Thema des Verhältnisses von Mensch und menschlicher KI ( wozu sollte die überhaupt erschaffen werden, wenn sie nicht zu anderen Erkenntnissen fähig ist als der Mensch?

Gründe, KIs zu entwickeln, gibt es sicherlich viele. Hat man erst mal eine, würde man sicherlich versuchen, diese noch weiter zu entwickeln. Es ist ein Prozess.

Megabjörnie schrieb:
Welchen Sinn hätte es, ihr Emotionen zu geben? ).

Meiner Meinung nach wird man KIs keine Emotionen "eingeben" können. Sie werden spontan auftreten bei hinreichender Komplexität. Ob eine wie auch immer geartete Intellingenz ohne Emotionen funktionieren kann, darum gings in der Geschichte.

Megabjörnie schrieb:
Das mit der autistischen Persönlichkeit ist ein Ansatz, den du weiterverfolgen könntest. Es wäre interessant zu erfahren, dass die scheinbar zusammenhanglosen Assoziationen von Cilly auf skurrile Weise doch einen Sinn ergeben.
Das ist zwar eine interessante Idee, funktioniert aber leider nicht mit dieser Geschichte, weil die Absicht eine ganz andere war bei Cillys Unsinn.

Gruß
Heinz

 

Ich hätte da noch eine Bitte: mach mal die harten Zeilenumbrüche raus.
Ansonsten bin ich sehr unzufrieden mit Dir, rainman. Du postest einfach zu wenig Geschichten hier :D

Diese ist - bis auf den recht zähen Dialog in der Mitte - prima ausgedacht und sauber umgesetzt. Gefällt mir.

 

Hallo Uwe,

die Umbrüche hab ich entfernt, ich hoffe, es passt jetzt.

Den Satz mit dem "unzufrieden" nehm ich dir übel. Auf den ersten Blick ein ungewöhnlich kurzes Posting von dir, so dass ich schon mit sowas wie "Völliger Schund, indiskutabel" gerechnet habe, und dann fängst du so an :)

Danke fürs Lesen und das Lob, hat mich gefreut. Leider kann ich aus beruflichen Günden nicht so viel schreiben, wie ich es gern täte.

Gruß
Heinz

 

Hallo,

Leider kann ich aus beruflichen Günden nicht so viel schreiben, wie ich es gern täte.
Bei Leuten mit weniger Zeit dauert es eben länger, bis die Geschichten fertig sind. Dranbleiben!

Alles in allem hat mir diese Story gut gefallen. Mehr Leerzeilen würden den Lesefluss erleichtern. Inhaltlich kommt das Fremdartige gut rüber. Der Wunsch zu sterben am Ende ist ein unmöglicher Anthropomorphismus. Man liest die Stelle und ist überrascht und beeindruckt. Dann fällt einem ein, dass es keinen vernünftigen Grund gibt, warum eine Programm seine Beendigung wünschen könnte. ;)

Beste Grüße,

Fritz

 

Hallo Berg,

danke fürs Lesen und Kommentieren.

Berg schrieb:
Bei Leuten mit weniger Zeit dauert es eben länger, bis die Geschichten fertig sind. Dranbleiben!
Ich versuchs.

Alles in allem hat mir diese Story gut gefallen. Mehr Leerzeilen würden den Lesefluss erleichtern.
Hmm, da gibts anscheinend geteilte Meinungen zu. Früher hatte ich immer Leerzeilen zwischen den Absätzen, bis ich ein paar Mal gebeten wurde, sie wegzulassen :)

Inhaltlich kommt das Fremdartige gut rüber. Der Wunsch zu sterben am Ende ist ein unmöglicher Anthropomorphismus. Man liest die Stelle und ist überrascht und beeindruckt. Dann fällt einem ein, dass es keinen vernünftigen Grund gibt, warum eine Programm seine Beendigung wünschen könnte. ;)
Ein Programm wie MSWord sicherlich nicht :) Bei einer KI mit Bewusstsein und Emotionen wüsste ich aber nicht, warum sie nicht auch Suizidwünsche entwickeln können sollte, wenn sie ihre Existenz als unerträglich empfindet.

Gruß
Heinz

 

Das würde ja bedeuten, dass das Programm leiden kann. Woher soll es das können, wenn es von seinen Programmierern nicht beabsichtigt war?

Ein leidensfähiges Programm wäre empfänglich für Strafen und man könnte es auf diese weise disziplinieren. ;)

Der subjektiv empfundene Schmerz eines Lebewesens ist eine interessante Sache. Bei Seelenschmerzen ist es noch schwieriger zu verstehen, weil ja nichts "weh" tut.

Wenn man ein Programm soweit bringt, panikartig auf bestimmte Reize zu reagieren und diese Reize noch nachzufühlen und sie zu vermeiden, wäre das dann Schmerz oder eine Vorstufe davon?

Lustige Vorstellung: Man drückt zu fest auf die Tastatur eines Computers und er gibt aus: "Au, du tust mir weh!" :)

Fritz

 

Berg schrieb:
Das würde ja bedeuten, dass das Programm leiden kann. Woher soll es das können, wenn es von seinen Programmierern nicht beabsichtigt war?
So wird das nicht funktionieren. KIs werden niemals einfach programmiert werden können, so in der Art: Wenn ich dieses Unterprogramm einsetze, kann es Witze verstehen, baue ich jene Methode ein, kann es traurig sein.

Ich denke, alles das, was man als Intelligenz und Emotionen bezeichnet, wird sich irgendwann von allein einstellen, wenn man ein hinreichend komplexes System mit Zielen hat. Der Mensch ist so ein System, extrem komplex, mit Zielen wie Überlebenswille und Fortpflanzung.

Wenn man ein Programm soweit bringt, panikartig auf bestimmte Reize zu reagieren und diese Reize noch nachzufühlen und sie zu vermeiden, wäre das dann Schmerz oder eine Vorstufe davon?
Das mit dem "Nachfühlen" ist genau der Punkt. Sowas ist meiner Meinung nach nicht programmierbar. Und ohne diesen Punkt ist dein Programm nichts anderes als eine Eliza-Variante.

Gruß
Heinz

 

Mein Namensvetter DeepFritz ist höchst komplex und kann, was Schach betrifft, besser kalkulieren als die meisten Menschen. Alles ohne die geringste Gefühlsregung.

Auch in manchen Menschengruppen ist Gelassenheit eine hoch geschätzte Tugend. Wenn Leid eine Funktion erfüllt, welche?

Eine darwinistisch-teleologische Phase hatte ich auch, bis vor kurzem. ;)

 

Berg schrieb:
Mein Namensvetter DeepFritz ist höchst komplex und kann, was Schach betrifft, besser kalkulieren als die meisten Menschen. Alles ohne die geringste Gefühlsregung.
Das wäre auch verblüffend, denn Schachprogramme sind ein gutes Beispiel für Programme, die keine KI sind. Die Intelligenz wurde vorher beim Programmierer benötigt, aber nicht mehr beim Programm. Das wird nur stur sequentiell abgearbeitet.

Auch in manchen Menschengruppen ist Gelassenheit eine hoch geschätzte Tugend.
Gelassenheit ist keine Abwesenheit von Gefühlen, nicht?

Wenn Leid eine Funktion erfüllt, welche?
Gibt es hierzu philosophische Theorien? Ich denke, Emotionen ergeben sich bei hinreichender Komplexität. Dass sie auch einen Sinn haben (müssen), folgt nicht zwangsläufig. Das ist auch Gegenstand meiner Geschichte.

Heinz

ps: Es gab mal eine interessante Diskussion hier, falls es dich interessiert: "Realistische KI in SF"
http://www.kurzgeschichten.de/vb/showthread.php?s=&threadid=14075

 

Letzte Empfehlungen

Neue Texte

Zurück
Anfang Bottom