ProfDrVonUndZu hat geschrieben: ↑Fr 13. Mär 2026, 00:43
Auf weitere Nachfrage:
Du kannst die Frage also nicht mit einem Ja oder Nein beantworten ?
führt Chatgpt mir aus, dass und warum keine klare Antwort möglich ist.
Diese Antwort obliegt auch nur dir und nicht einer KI. Ein Hinweis darauf, dass Bits und Bytes keine moralischen Entscheidungen fällen können. Man zeigt dir nur jeweils vertretene Positionen.
Würde die KI auch Entscheidungen fällen können, wäre sie in der Tat gefährlich, denn dann könnte sie entscheiden Maßnahmen zu ergreifen, z.B. gesteuerte Vorgänge nicht mehr dir zu überlassen, sondern selbst in die Hand zu nehmen, d.h. sie verselbstständig sich.
Davor haben gewisse Hosenkacker, welche die KI grundlos ablehen auch Angst. Aber eine irrationale Angst, so denke ich, kann zu einer noch größere Gefahr werden, denn aus ihr entspringen auch irrationale Handlungen, und dann sind es gerade sie, die mit der Manipilation der Systeme beginnen. Ließe man die KI einfach nur als Tool laufen, würde nie etwas passieren.
Es ist immer der böse und ungläubige Mensch, der damit beginnt, die Dinge nach eigenem Gutdünken zu manipulieren, und daher sehe ich in den KI-Gegnern, die sich zu Aktivisten aufspielen, die eigentliche Gefahr.
Sie waren es doch jedes Mal, wenn Neues gekommen ist, dass sie Unfrieden so erst geschürt haben und begonnen haben die normale Nutzung der Dinge zu blockieren bzw. zu sabotieren. Sieh dir nur die Klimaapostel an, wie sie agieren.
Statt Chancen sehen sie nur Gefahren, statt Möglichkeiten nur Hindernisse. Sie habe keinen Glauben außer den ihrer eigenen VTn und wollen anderen ihren guten Glauben rauben. Ihr Leben gleicht für mich dem Wort:
Hiob 3,25 hat geschrieben: Denn ich fürchtete einen Schrecken, und er traf mich, und wovor mir bangte, das kam über mich.
Sogenannte sich selbsterfüllende Prophezeiungen. Sie weissagen damit über sich selbst und sind dem Wesen nach Ungläubige. Der Gläubge braucht nichts zu fürchten, denn ihn bewahrt schon der Herr, auch wenn er mal Fehler macht und eine KI falsch benutzt.