Mehr als 300 internationale Experten sowie führende Köpfe aus Politik, Wirtschaft, Wissenschaft,Gesellschaft, Startups und Studenten kamen beim ersten Technology Impact Summit in der Grazer Seifenfabrik zusammen, um über die weitreichenden Auswirkungen Künstlicher Intelligenz zu diskutieren.
Nicht nur setzte das von der Universität Graz, der Technischen Universität Graz, JOANNEUM RESEARCH und der FH JOANNEUM initiierte und von Fanny Stapf (ORF) moderierte Event dabei auf einen holistischen Ansatz – das facettenreiche Programm, welches von scharfsinnigen Debatten bis hin zu kompakten Lightning Talks reichte, eröffnete zudem Raum für neue Perspektiven und inspirierte zu einem lebhaften Wissensaustausch über Disziplinen hinweg.
Hochkarätige Vortragende und nachhaltiger „Impact“
Gebührend auf diesen ersten Technology Impact Summit eingestimmt wurde beim gemeinsamen Pre-Event, welches unter anderem Thomas Burri (Hochschule St. Gallen), Jurist Martin Schiefer, Helmut List (AVL List), Marlene Hanschitz-Halikias (Grant Thornton), Harald Leitenmüller (Microsoft) und Andreas Martin (Porsche Media & Creative) ins „Unicorn“ der Universität Graz lud.
Zu den Highlights der am Tag darauf stattfindenden Panels zählen die Beiträge von Bestseller-Autorin und Wissenschafterin Julia Shaw (University College London), die mit ihren Einsichten zum „Tanz des Gehirns mit der Künstlichen Intelligenz“ begeisterte.
KI ist Magie
„Erinnerungen sind modifizierbar“, hält Julia Shaw fest.
Das System Gehirn ist dafür programmiert, sich gut, aber nicht perfekt zu erinnern. Ähnlich verhält es sich auch mit Künstlicher Intelligenz. Sie stuft soziale Medien als passiv ein, da nur sehr wenige Menschen „Content“ kreieren. Künstliche Intelligenz hingegen ist durch den direkten Dialog aktiv.
„Menschen können nicht nur ihren Wissensdurst stillen, sondern auch dumme Fragen stellen und sich dabei wohlfühlen“, erklärt die Wissenschafterin.
Das Kurzzeitgedächtnis ist mit nur 30 Sekunden definiert. Multisensorische Erinnerungen sind eine physische Struktur im Gehirn. Das Gehirn sei nicht da, um die Realität zu speichern, sondern uns Geschichten zu erzählen, die uns dabei helfen, Probleme zu lösen – genauso wie Künstliche Intelligenz.
„Das Beste, was Künstliche Intelligenz derzeit kann, ist fiktionale Geschichten zu erzählen“, analysiert die Forscherin die hohe Fehlerquote der Ergebnisse. Auch darin erkennt sie eine Parallele zu Menschen, die im normalen Gespräch ebenfalls selbstsicher falsche Inhalte verbreiten.
„Wir sind die Kuratoren unserer Realität, weil Erinnerungen Geschichten sind. Die Frage ist nur, wie falsch autobiografische Erinnerungen sind“, hält die Wissenschaftlerin fest. Geschichten werden schließlich besser, je öfter man sie erzählt. Jeder entscheidet selbst, wie er seine Leben und seine Realität sehen möchte, wodurch bestimmte Erinnerungen immer wieder verstärkt werden. Der Mensch ist, was er zu sein vorgibt. Erinnerungen sind sozial und wollen geteilt werden.
Die Manipulation durch Künstliche Intelligenz werde der Forscherin zufolge die Erinnerungen der Menschen verändern. Sie werde aber auch dazu beitragen, Beweise festzuhalten.
Technologische Spaltung der Gesellschaft
Im gemeinsamen Austausch widmeten sich Markus Kneer (Universität Graz) und Sonja Schmer-Galunder (University of Florida) außerdem den ethischen Dimensionen der Künstlichen Intelligenz. Gibt es ausreichend inklusive und konstruktive Zugänge zur Technologie?
Sonja Schmer-Galunder ist der Auffassung, dass Intelligenz per se die Gesellschaft spaltet und Künstliche Intelligenz diesen Effekt verstärkt, und jenen Personen Macht gibt, die die Algorithmen kennen und kontrollieren. Sie definiert eine wechselseitige Beeinflussung von Gesellschaft und Technologie, wodurch Regierungen eine hohe Bedeutung zukommt, um Rahmenbedingungen zu schaffen, die eine faire, gerechte und konstruktive Gesellschaft ermöglichen.
Markus Kneer hingegen meint, dass wir der Künstlichen Intelligenz zu leichten und zu wenig regulierten Zugang zum Menschen verschaffen und Algorithmen – unter anderem auf sozialen Medien – die User manipulieren. Sie sprechen niedere Instinkte wie Streitsucht, Eitelkeit und Gier an. Als drastisches Beispiel für die Manipulation der Gesellschaft durch „Dampfplauderer im Silicon Valley“ nennt der Experte den Sturm auf das Kapitol bei der Abwahl von Donald Trump.
Sonja Schmer-Galunder sieht den „Terminator ex machina“ zwar nicht vor der Türe, erkennt aber die drohende Gefahr von kumulierten Risiken, die fundamentalen Schaden anrichten können. Sie fordert daher Safe AI und die Implementierung von Standards, um die Verwendung der Technologie sicher zu machen. Die Notwendigkeit dafür ist groß: Derzeit kommt auf 1.000 Ingenieure bei Open AI nur eine Person, die für Sicherheit und Ethik verantwortlich ist.
Kritische Perspektiven und humanistische Ansätze
Eine kritische Perspektive auf die Rolle Europas im globalen Wettbewerb um technologische Führung boten Elisabeth Lex (TU Graz), Jana Lasser (Universität Graz) und Mic Hirschbrich (Apollo.ai).
Die Experten betonten vor allem die Notwendigkeit, europäische Werte und humanistische Ansätze in die Entwicklung und Anwendung von Künstlicher Intelligenz zu integrieren.
Der Frage, wer künftig die Oberhand haben wird – Mensch oder Maschine – gingen Konrad Paul Liessmann (Universität Wien), Viktor Mayer-Schönberger (Oxford University) und Anna-Maria Wallner (Die Presse) nach. Insgesamt wurde Künstliche Intelligenz als Förderung der Bequemlichkeit, nicht jedoch als kulturelle Revolution eingeschätzt.
Der Technology Impact Summit ist eine gemeinsame Initiative von Universität Graz, Technische Universität Graz, JOANNEUM RESEARCH und FH JOANNEUM. Er präsentiert aktuelle technologische und wissenschaftliche Entwicklungen und schlägt eine Brücke zwischen unterschiedlichen Fachbereichen sowie heimischen und internationalen Experten.