, ,

Welten-Modelle & deren mögliche Implikationen.

Share with

Tech-Gedanken am Morgen. 🤷‍♂️Was treibt Euch um?

Ich finde aktuell technologisch am spannendsten, was DeepMind (Google) auf die Beine stellt.

Erst „Genie3“ (in deutsch nicht „Genie“ sondern Fee…ich sag’s nur) und jetzt eben „SIMA2“.

Genie3 erlaubt, aus Bildern oder gar „nur“ Prompts spielbare, vietuelle Szenarien zu erstellen.
Man kann also eine Spiel-Szene mit einem Prompt erstellen und dann die Aktion auch tatsächlich ausführen.

SIMA2 dagegen versucht als Spieler diese zu lösen. Also wenn man so will die konsequente Weiterentwicklung von IBMs Schachspieler oder eben DeepMinds AlphaGo.

Aber diesmal eben für alle Spiele.

Spannend an diesen Ansätzen ist der beiden gemeine Aspekt die Erkennung von Sprache mit denen von Bild, (ggf.) Audio und „Bewegung/Steuerung“ (wozu dann auch Konzepte wie Schwerkraft oder Reaktion gehören können) zu fusionieren.

In Englisch wird das gerne unter dem Begriff „Welt-Modelle“ subsumiert.
Die Idee dahinter ist, dass man (wirkliche, aber meist „generelle“) künstliche Intelligenz nur schaffen kann, wenn man mehr als „nur“ Sprache berücksichtigt. Sozusagen alle Sensoren, die auch Menschen zur Verfügung stehen, einsetzt.

DeepMind virtualisiert aber die „Sensoren“ und bleibt (zur Zeit) in rein virtuellen Welten.

Das müsste könnte/müsste Konsequenzen haben wie sich so ein Modell entwickelt. Im Gegensatz zu einem mit echten Sensoren in der echten Welt. Oder?
Was denkt ihr?

Wird es 2 unterschiedliche „Intelligenz“ Modell-Arten geben?
Ein Ast, der in den virtuellen Realitäten des Netzes lernt und lebt/agiert, während der andere Ast in unserer Realität lernt und lebt/agiert?
Und welche Modell-Art wäre dann die gefährlichere für uns Menschen?

Naja. Das finde ich heute Morgen gerade spannend. 🤣

Tagged in :