Künstliche Intelligenz

Moderator: Holger
no avatar
Ulysses
Beiträge: 54
Registriert: 01.06.2006, 22:10
Wohnort: Österreich

04.12.2006, 19:09

Mir ist, als hätte ich so etwas in der Richtung schon mal gelesen ...


Verdammt X(

no avatar
ccss
Beiträge: 370
Registriert: 15.11.2003, 15:25

05.12.2006, 00:02

Unlängst kam in China, oder Japan ein Roboter heraus, der aussieht wie ein Mensch. Fehlt nur mehr die dazu gehörige KI. So viel von der technischen Seite. Sicher eine KI programmiert man nicht so schnell mal eben nebenbei, aber wenn man einen Roboter fertigen kann der wirklich so menschlich wirkt, dann wird eine KI (zumindest eine beschränkte) auch nicht mehr so lange auf sich warten lassen.

Also ich sehe das wie @Phoebe: Menschen wollen immer einen Not Ausschalter haben. Vor allem bei etwas so gefährlichem und mächtigem. Und auch wenn er vl. Anfangs nicht eingebaut war/wird/wurde, irgendwann kommt sicher ein entsprechendes Gesetzt. Oder der Druck durch die Käufer dahingehend wird zu stark. Weiters stimme ich dir zu, dass eine KI von alleine nichts böses tut. Da gilt der Spruch: Computer tun nur das was sie sollen bzw man ihnen sagt, dass sie tun sollen. Wenn nicht, dann hat das Programm irgend einen Fehler. Und genau deshalb sehe ich keinen Fehler und kein Problem mit dem 0 Gesetzt. "Ein Robot darf der Menschheit keinen Schaden zufügen oder durch seine Untätigkeit gestatten, dass die Menschheit zu Schaden kommt." Genau das wird er tun und keine selbstständige "Menschheitsverbesserungsaktion" durch ethnische Säuberung ;) durchführen. Genau so wenig wird er auf Befehle hören, die einem Menschen schaden. (Mal abgesehen davon, dass es heißt ´menschliches Wesen´ und nicht Menschheit. Heißt: es zählt jeder Einzelne! (Wenn zitieren, dann bitte richtig ;))

Da alle Gesetze folgende sind:
  • 1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.
  • 2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel Eins kollidieren.
  • 3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel Eins oder Zwei kollidiert.


Also müsste jemand direkt am Quellcode herumpfuschen. Und das kann nur ein Mensch, womit wir bei der Wurzel des Übels wären. (Ausgehend davon, dass der Code auch funktioniert und zwar perfekt (nicht so wie mein eigener manchmal, oder der von MS immer....). Denn wie @Phoebe schon sagte, von alleine kommen die Kisten nicht auf solche Ideen, dass ist nur im Menschen drinnen.
Original von "Phoebe J."
Ist es da relevant, einige Opfer hinzunehmen, um die Menschheit vor größerem Übel zu bewahren?


Sagen wir mal einige der größten Entschuldigungen für die größten Gräueltaten der Menschheit wurden mit diesem Satz gerechtfertigt. Somit siehst du sicher mein Problem dabei.
Allerdings ist die Entschuldigung für die Gräueltaten überhaupt nicht haltbar. Der zitierte Satz geht für mich mehr in Richtung von Spocks Satz, "Das Wohl vieler wiegt schwerer, als das Wohl von wenigen, oder eines Einzelnen."
Das hat aber absolut nichts damit zu tun angeblich minderwertige Menschen auszulöschen. Das sind 2 verschiedene Paar Schuhe, damit ist es auch als Entschuldigung nicht haltbar. Denn im einen opfert sich jmd. freiwillig um andere zu retten und im anderen, meint irgendein Irrer andere zu töten um die Welt angeblich zu verbessern - hatten wir ja mal... (Nur um Missverständnissen vorzubeugen, ich weiß wie du es gemeint hast @Phoebe ;) )

@Roland
Ich glaub da gibt es mehrere... Zumindest erinner ich mich an irgendwas in der Richtung. Aber das ist es auch schon, eine wage Erinnerung.

Roboter an der Spitze der Nahrungskette? Bild ROFl, nee ich denke die bleiben bei Strom.

Wenn uns etwas an den Kragen rückt, dann entweder wir uns selbst, oder die Natur durch Katastrophen (an denen wir wohl auch Schuld haben :rolleyes: )
Bild

Benutzeravatar
Peppy80
Beiträge: 5659
Registriert: 30.10.2007, 01:43
Wohnort: Berlin

05.12.2006, 01:22

@"ccss"

Doch genau das ist das Problem. Jrgned jemand könnte ja auf die idee kommen die 3 Gesetzte außer kraft zu setzten.Mit welchen Zielen auch immer. Eine 100% Sicherheit gibt es nun mal nicht. Da sollte man sich gut überlegen ob man ihnen zwei Arme und Beine gibt.

@ "Phoebe"
Also in Dem Film Matrix hat man eine gut Vorstellung davon bekommen wie Menschen als Stromlieferant genutzt werden könnten. :(

Doch eigentlich meinte ich auch das Androiden auf Platz eins der Nahrungskette kommen könnten, da es auch gut möglich ist das sie uns den Raum den wir derzeit zum Leben nutzen(der immer größer wird)streitig machen könnten. Das ist auch der Grund warum wir aus Platz 1 Stehen und nicht weil wir fast alle dinge in uns reinstopfen was auf diesen Planeten lebt.
Doch wozu brauchen wir eigentlicht eine künstliche Intiligens??? Ich kann ja verstehen das Roboter eine gut hilfe im Altag sind und das sie einige sehr gefährliche aufgaben für uns übernehmen.Aber sind wir jetzt schon so faul geworden das wir darauf hin arbeiten das Roboter oder Androiden später einmal für uns auch das denken übernehmen sollen??? ?(

Benutzeravatar
Peppy80
Beiträge: 5659
Registriert: 30.10.2007, 01:43
Wohnort: Berlin

05.12.2006, 01:33

Hoffe das es einen Zweiten Teil von I Robot gibt. Da beim Ende vom ersten Film zu sehen war das die Roboter den Befehl in die Container zu gehen ignoriert haben als sie den Roboter Sonny auf dem Hügel erblickt haben. Damit haben sie sich einen direken Befehl wiedersetzt.

no avatar
Ulysses
Beiträge: 54
Registriert: 01.06.2006, 22:10
Wohnort: Österreich

05.12.2006, 13:30

Jrgned jemand könnte ja auf die idee kommen die 3 Gesetzte außer kraft zu setzten.
Soweit müssen wir gar nicht gehen. Isaac Asimov hat mit seinen unzähligen Robotgeschichten bewiesen, dass es gar nicht notwendig ist, die Gesetze direkt zu brechen, und doch Schaden anzurichten. Probleme sind vorprogrammiert, aber es wäre für mich ein Genuss diese zu lösen. :D

no avatar
genius_q
Beiträge: 529
Registriert: 30.01.2006, 13:47
Wohnort: Earth

07.12.2006, 11:16

Original von "Phoebe J."
Ach so und die Androiden fressen dann Menschen? :D Sehr faszinierend. Ich würde sagen, wenn wir die Dinger schon entwickeln, dann eher so dass sie Strom brauchen um sich zu ´ernähren´ - und keine Menschen.
Das erinnert mich an "Matrix".
"Die Genialität einer Konstruktion liegt in ihrer Einfachheit." Sergej Koroljow Erbauer des ersten Sputnik

no avatar
Phoebe J.
Beiträge: 4371
Registriert: 10.06.2003, 00:19
Wohnort: Bayern

07.12.2006, 19:59

Auch nett, nur sehe ich den Film eher als philosophische Diskussion als als realisierbare Zukunft.
Mal:Do you know your job, little one?
River:Do you?
(Firefly)


Bild

no avatar
genius_q
Beiträge: 529
Registriert: 30.01.2006, 13:47
Wohnort: Earth

14.12.2006, 10:40

Desweiteren erinnert mich das an "Terminator; einige Folgen von Raumpatrouille Orion; die Borg; BSG".

Erst gestern hab ich eine Folge von Andromeda gesehen in der die KI Gabriel die Kontrolle über ein Schiff übernimmt, prickelnd ist der Gedanke nicht.

Ich denke es ist besser wenn die Computer, Roboter und ähnliche Maschienen nicht Lernfähig werden, denn nur so können wir sie unter Kontrolle halten.
Nicht jeder Android ist so Nett wie Data und versucht menschlicher zu werden.
Nicht jeder Roboter wie Andrew aus "der zweihundert Jahre Mann" strebt nach einer friedlichen auseinandersetzung mit den Menschen.
Sie werden wissen das sie Stärker Schneller Intelligenter sein können und sind als wir.
Mitgefühl, oder Gefühle überhaupt, werden sie nicht haben.
Du flehst um dein Leben und sie nehmen es dir denn du bist ihnen im Weg.
Ich für meinen Teil sage lasst das lieber sein!
Cybernetische Implantate (z. B. künstliche Nieren oder Herzen) ja, da bin ich dafür ,aber Komplexe selbstdenkende und lernende Maschienen, nein Danke.
Irgendjemand hat mal gesagt: "der computer ist nur so schlau wie sein Schöpfer oder Programmierer", ist er lernfähig wird er schlauer werden und feststellen das der Mensch minderwertig ihm gegenüber ist und ihn beseitigen wollen.Zertreten wie eine Schabe.
"Die Genialität einer Konstruktion liegt in ihrer Einfachheit." Sergej Koroljow Erbauer des ersten Sputnik

no avatar
Ulysses
Beiträge: 54
Registriert: 01.06.2006, 22:10
Wohnort: Österreich

16.12.2006, 12:43

Doch wozu brauchen wir eigentlicht eine künstliche Intiligens??? Ich kann ja verstehen das Roboter eine gut hilfe im Altag sind und das sie einige sehr gefährliche aufgaben für uns übernehmen.Aber sind wir jetzt schon so faul geworden das wir darauf hin arbeiten das Roboter oder Androiden später einmal für uns auch das denken übernehmen sollen???


Aber ein Robot mit hochentwickelter künstlicher Intelligenz könnte bei vielen Problemen helfen, z.b. gegen Globalerwärmung, Unterschied Reich-Arm (3.Welt), Krankheiten, usw.
Sie werden wissen das sie Stärker Schneller Intelligenter sein können und sind als wir.

Vielleicht können sie gerade aus diesem Grund kühl und logisch an die Probleme herantreten und ohne Geldgier/sorgen Entscheidungen treffen, denn es ist genug für alle da, nur manche wollen immer ein wenig mehr haben.

no avatar
Phoebe J.
Beiträge: 4371
Registriert: 10.06.2003, 00:19
Wohnort: Bayern

16.12.2006, 15:44

Aber ein Robot mit hochentwickelter künstlicher Intelligenz könnte bei vielen Problemen helfen, z.b. gegen Globalerwärmung, Unterschied Reich-Arm (3.Welt), Krankheiten, usw.


Und wie das bitte? Ich meine technisch wüsste man doch schon wie man die Globalerwärmung zurückdrängt oder was man tun kann um sie zu verzögern? Ebenso den Unterschied Reich-Arm oder wie man Krankheiten heilt.

Von einer KI kannst du keine Wunder erwarten, eine KI kann nicht innovativ denken, sondern nur logisch. Sie ist auch nur so intelligent wie derjenige der sie programmiert. Und selbst wenn sie selbst dazulernt, wird sie nie lernen wie man innovativ Probleme löst, das ist ein menschliches Phänomen, das durch ein Zusammenspiel von Ahnungen, Intution, Rationalität und Gefühlen zustandekommt. Das kannst du einem Androiden nicht beibringen. Somit ist er gerade mal gut genug in der Medizin bereits schon vorhandene Tests auszuwerten, nicht neue zu erfinden oder gar Heilmittel. Die meisten Heilmittel kamen durch Zufall zustande und waren nicht die Lösung des eigentlichen Problemes, sondern eines anderen. Das würde ein Andoride zum Beispiel nicht bemerken sondern das Projekt als Fehlschlag einstufen und die Heilmethode für das andere Problem vernichten. Nicht sehr gut, oder?

Und selbst wenn uns der Androide sagt, wir dürfen keine Autos mehr fahren die mit Benzin angetrieben werden.... ich glaube nicht dass Amerika da mitspielt, wer nicht mal das Kyoto Abkommen unterzeichnet, der zeigt dem Robbi den Vogel. Die meistne Probleme sind nun mal von Menschen gemacht, die sie auch lösen können, wenn sie wirklich wollten. Aber der Mensch ist nun mal von Profitgier geleitet sowie von sozialem Ansehen und Prestige. Da schafft man keine Arbeitsplätze sondern vernichtet sie um die Gewinnspanne zu vergrößern.

Sprich wir brauchen keine Androiden, die dabei helfen Probleme zu lösen, das könnten wir ganz gut selbst, wenn wir uns Mühe gäben und das selbst wollten. Androiden wären IMHO nur für eines gut: Dem Menschen hilfreich zu Seite zu stehen und ihm ungeliebte Arbeiten abnehmen. Aber gerade in der Wissenschaft müsste der Mensch den Androiden wegen der unflexiblen Denkweise immzu über die Schulter schauen und die Ergebnisse kontrollieren.

Daher ist für mich die Diskussion ob man lernfähige Androiden bauen sollte schon gegessen. Nein, weil ihnen die Intuition und die Gefühle fehlen. Als ´Helferlein´ ja, aber nicht so dass sie auf die Idee kommen, sie wären besser als wir, weil sie logischer sind. Das wären sie nämlich nicht, aber wie wollen wir sie rein logisch davon überzeugen? Wir sollten nichts erschaffen, was uns aus dem Ruder laufen könnte. Lernfähige KI die über einen gewissen Punkt hinausgeht gehört dazu.
Mal:Do you know your job, little one?
River:Do you?
(Firefly)


Bild

Antworten

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 74 Gäste