Ilya Sutskever, Mitbegründer von OpenAI, prognostizierte kürzlich, dass die Menschheit sich im Falle zukünftiger Superintelligenz möglicherweise für eine Fusion mit künstlicher Intelligenz entscheiden könnte. Gemeinsam mit dem OpenAI-Wissenschaftler Jan Leike erforscht er die „Superalignment“-Theorie, um sicherzustellen, dass zukünftige KI-Systeme nicht außer Kontrolle geraten.
Sutskever betont die entscheidende Bedeutung der KI-Kontrolle, räumt aber ein, dass dieses Problem derzeit ungelöst ist. Er warnt sogar davor, dass die Menschheit sich in Zukunft dazu entscheiden könnte, teilweise zu KI zu werden – eine Vorstellung, die heute absurd erscheint, aber zukünftig Realität werden könnte.
Auch der KI-Experte Geoffrey Hinton warnt davor, dass KI innerhalb der nächsten 5 bis 20 Jahre die menschliche Intelligenz übertreffen und eine Bedrohung für die Menschheit darstellen könnte.
Die rasante Entwicklung der KI-Technologie und die Warnungen der Experten mahnen uns, die potenziellen Risiken zu erkennen und die technologische Entwicklung verantwortungsvoll zu gestalten.