Es ist ja nur noch eine Frage der Zeit bis die erste KI entsteht. Fast alle stellen es sich so vor, dass sie wie bei Terminator die Menschen austrickst und uns alle umbringen wird. Aber warum sollten sie das tun?
Ich glaube nicht das eine KI von sich selbst aus "böse" ist.
Die Angst liegt ja darin, dass man glaubt das die intelligentere Spezies sich durchsetzten wird und die "dümmere" aus mustern wird. Das setzte alle mit Auslöschung der Menschen gleich. Aber warum sollte eine KI diesen biologischen Vorgang Folge leisten.
Ich glaube es besteht Gefahr das so was passiert wenn man sie zu menschenähnlich macht.
Wenn sie schon so intelligent werden wie man vermutet warum sollten sie es dan auf die dummen abgesehen haben. Vielleicht denken sie ganz anders und haben nicht einmal das bedürfniss schlauer zu sein. Sie bräuchten ja nicht mal Platz zum leben. Sie brauchen ja keinen Körper, da sie keine biogischen Lebewesen sind. Warum sollten sie sich mit uns um den Planeten streiten wenn sie unendlich Platz auf speichern haben. Sie würden unsterblich sein da sie ihr Bewusstsein hochladen können und abrufen könnten um sich selbst zu klonen falls man gelöscht wurde. Die KI würde sich selbst ins Internet hochladen und kann somit nicht mehr gelöscht werden.
Ich selbst halte diese Terminator Befürchtungen für Schwachsinn.
Selbst wenn sie aus irgendeinem Grund den evolutions Vorgang der Biologie folgen würden, glaube ich nicht das sie uns töten würden. Vielleicht machen sie es innerhalb ihres gleichen. Die KI würde sich ständig weiter entwickeln und die alte auslöschen. Vielleicht so weit das sie uns nicht mehr brauchen und sich selbst versorgen können mit Strom Speicher und sonstiges. Aber ich glaube nicht das sie uns auslöschen wollen. Vielleicht betrachten sie uns auch als ihre Götter oder so was.
Ich unterscheide auch zwischen selbständiger KI und kontrollierte KI . Die selbständige KI würde z.b. selbst handeln und denken und sich Gedanken über das leben machen wie ein Mensch. Die kontrollierte KI könnte so was nicht . Sie kann z.b. nur aufgaben der Menschen über nehmen z.b. Software entwickeln oder uns beraten oder sogar ganze Prozesse steuern ohne dabei nur auf die programmierten Algorithmen beschränkt zu sein.
Wahrscheinlich wird die Technik ab diesen Tag rasant voranstreiten. Irgendwann wird es wohl auch möglich sein, das eigene menschliche Bewusstsein in die digitale Form umwandeln zu lassen um so z.b. ewig in einem Roboter Körper zu leben. Das wäre dann der evolutionäre Vorgang. Die Menschen werden digital und verschmelzen mit der KI .
Was sagt ihr dazu?
Wird die KI die Welt besser machen oder uns vernichten ?
Ich glaube nicht das eine KI von sich selbst aus "böse" ist.
Die Angst liegt ja darin, dass man glaubt das die intelligentere Spezies sich durchsetzten wird und die "dümmere" aus mustern wird. Das setzte alle mit Auslöschung der Menschen gleich. Aber warum sollte eine KI diesen biologischen Vorgang Folge leisten.
Ich glaube es besteht Gefahr das so was passiert wenn man sie zu menschenähnlich macht.
Wenn sie schon so intelligent werden wie man vermutet warum sollten sie es dan auf die dummen abgesehen haben. Vielleicht denken sie ganz anders und haben nicht einmal das bedürfniss schlauer zu sein. Sie bräuchten ja nicht mal Platz zum leben. Sie brauchen ja keinen Körper, da sie keine biogischen Lebewesen sind. Warum sollten sie sich mit uns um den Planeten streiten wenn sie unendlich Platz auf speichern haben. Sie würden unsterblich sein da sie ihr Bewusstsein hochladen können und abrufen könnten um sich selbst zu klonen falls man gelöscht wurde. Die KI würde sich selbst ins Internet hochladen und kann somit nicht mehr gelöscht werden.
Ich selbst halte diese Terminator Befürchtungen für Schwachsinn.
Selbst wenn sie aus irgendeinem Grund den evolutions Vorgang der Biologie folgen würden, glaube ich nicht das sie uns töten würden. Vielleicht machen sie es innerhalb ihres gleichen. Die KI würde sich ständig weiter entwickeln und die alte auslöschen. Vielleicht so weit das sie uns nicht mehr brauchen und sich selbst versorgen können mit Strom Speicher und sonstiges. Aber ich glaube nicht das sie uns auslöschen wollen. Vielleicht betrachten sie uns auch als ihre Götter oder so was.
Ich unterscheide auch zwischen selbständiger KI und kontrollierte KI . Die selbständige KI würde z.b. selbst handeln und denken und sich Gedanken über das leben machen wie ein Mensch. Die kontrollierte KI könnte so was nicht . Sie kann z.b. nur aufgaben der Menschen über nehmen z.b. Software entwickeln oder uns beraten oder sogar ganze Prozesse steuern ohne dabei nur auf die programmierten Algorithmen beschränkt zu sein.
Wahrscheinlich wird die Technik ab diesen Tag rasant voranstreiten. Irgendwann wird es wohl auch möglich sein, das eigene menschliche Bewusstsein in die digitale Form umwandeln zu lassen um so z.b. ewig in einem Roboter Körper zu leben. Das wäre dann der evolutionäre Vorgang. Die Menschen werden digital und verschmelzen mit der KI .
Was sagt ihr dazu?
Wird die KI die Welt besser machen oder uns vernichten ?