Präsentationen – Referate – Vorträge

DecNet Speech 2024

Generative KI ist wie ein unglaublich versierter Imitator, der durch das Studium unzähliger menschlicher Werke gelernt hat, überzeugende neue Inhalte zu erschaffen – sei es Text, Bilder oder Code. Sie ist meisterhaft darin, Muster und Wahrscheinlichkeiten zu verknüpfen, besitzt aber kein intrinsisches Verständnis oder Bewusstsein für das, was sie kreiert.

Dr. Daniel Benninger

Das Referat beleuchtet das Thema Generative Künstliche Intelligenz (genAI) und die Frage, ob Sam Altman (CEO OpenAI) damit eine „Büchse der Pandora“ geöffnet hat.

Generative KI wird als „The Next (IT) Revolution“ und „A Paradigm Shift in Programming!“ plakativ beschrieben. Sie nutzt Fortschritte im Deep Learning, um vielfältige Inhalte wie Text, Grafiken, Audio und Video in grossem Massstab zu produzieren. Die Klassifizierung von KI unterscheidet dabei zwischen schwacher/enger KI (Narrow AI), starker/allgemeiner KI (General AI) und Super KI, die jeweils unterschiedliche Fähigkeitsstufen in der Problemlösung oder Intelligenz darstellen. Die Geschichte der Künstlichen Intelligenz umfasst 70 Jahre mit „Hochs und Tiefs“, darunter „The Imitation Game“ (1950) von A.M. Turing und die Dartmouth Conference (1956), sowie zwei „AI Winter“.Yoshua Bengio, Geoffrey Hinton und Yann LeCun werden als „Fathers of Modern AI“ erwähnt, wobei  Yann LeCun betont, dass die klügsten KI-Systeme heute noch weniger gesunden Menschenverstand haben als eine Hauskatze.

Ein Schwerpunkt des Referates liegt auf den sog. Large Language Models wie ChatGPT, die eine breite Palette von Natural Language Processing (NLP)-Anwendungen verarbeiten können. LLMs sind jedoch keine Wahrheitsmaschinen, sondern Wahrscheinlichkeitsmodelle, die auf umfangreichen Trainingsdaten und menschlichem Feedback basieren und kontinuierlich weiterentwickelt werden.
Als Anwendungsbeispiele werden illustriert, die Bilderstellung (Von Text zu Bild, z.B. DALL-E, Stable Diffusion), die Texterstellung (Konversation, Frage & Antwort, Textgenerierung und Textzusammenfassung , z.B. ChatGPT, Bard), die Programmierung (Unterstützung beim Codieren und Korrigieren, z.B. ChatGPT). Fragen zu geistigem Eigentum (Intellectual Property) und Urheberrecht (Copyright) werden ebenso  aufgeworfen und diskutiert.

Das Referat schliesst mit einem Zitat von Alan Mathison Turing: „We can see only a short distance ahead, but we can see that much remains to be done„.

BPW Rapperswil - Blockchain

Blockchain-Technologien wie Smart Contracts und NFTs sind ein Muss für die Digitalwirtschaft und können durch Dezentralisierung, Transparenz und Manipulationssicherheit signifikanten Mehrwert schaffen

Dr. Daniel Benninger

Das Referat am BPW Rapperswil beleuchtet die Frage, ob Blockchain, Smart Contracts und Non-Fungible Tokens (NFTs) lediglich einen Hype darstellen oder einen echten Mehrwert für die Digitalwirtschaft bietet.

Die Blockchain-Technologie und der Bitcoin entstanden im Jahr 2009, massgeblich beeinflusst durch die Finanzkrise von 2008/2009. Eine Blockchain ist eine sog.  Distributed Ledger Technology (DLT), die sich durch mehrere spezifischs technische Eigenschaften auszeichnet.

Ferner werden die Entwicklung und Marktkapitalisierung von Kryptowährungen wie Bitcoin (BTC) und Ether (ETH) thematisiert.

Ein Non-Fungible Token (NFT) ist definiert als ein „kryptografisch eindeutiges, unteilbares, unersetzbares und überprüfbares Token, das einen bestimmten Gegenstand, sei er digital oder physisch, in einer Blockchain repräsentiert. Im Gegensatz zu Kryptowährungen sind NFTs einmalig und nicht teilbar („non-fungible“). Anwendungsbeispiele finden sich unter anderem in der digitalen Kunst.

Smart Contracts werden als Code auf einer Blockchain erklärt. Smart Contracts sind selbstausführende „Verträge“, deren Bedingungen direkt im Code hinterlegt sind. Ein Beispiel ist etwa eine „Dutch Auction“ für NFTs, bei der der Smart Contract den Preis über die Zeit automatisch senkt, bis ein Käufer das NFT erwirbt.

OPACC Campus Talk - 2019

Die geschickte Nutzung von Daten ist nicht allein den grossen Unternehmen vorbehalten ist. Gerade kleine und mittlere Unternehmen (KMU) aufgrund ihrer Flexibilität und Pragmatik Vorteile aus Big Data ziehen können, um am Markt und bei ihren Kunden zu punkten. In a nutshell: „Big Data: Auch Kleine können Gross!

Dr. Daniel Benninger

Das Referat am OPACC Campus Talk thematisiert, wie auch  Kleine und Mittlere Unternehmen (KMU) Vorteile aus Big Data ziehen können, um am Markt und bei ihren Kunden zu punkten.

Big Data wird zunächst als Informationsbestand definiert, welcher durch hohes Volumen, hohe Geschwindigkeit und/oder hohe Vielfalt gekennzeichnet ist und innovative, kosteneffiziente Verarbeitungsmethoden erfordert, um verbesserte Einblicke, Entscheidungsfindung und Prozessautomatisierung zu ermöglichen. Die zentralen Eigenschaften werden oft mit den „5 V’s“ beschrieben.

Die Diskussion über die Notwendigkeit der Datenspeicherung und -komprimierung reicht bis 1967 zurück. Der Begriff „Big Data“ erschien erstmals 1999 in einer Veröffentlichung, und die „3 V’s“ (Volume, Velocity, Variety) wurden 2001 als definierende Dimensionen etabliert. Wichtige Meilensteine umfassen auch Studien wie die von McKinsey aus dem Jahr 2011, die Big Data als „die nächste Grenze für Innovation, Wettbewerb und Produktivität“ bezeichnete.

Für die Verarbeitung von Big Data werden zudem Schlüsselkonzepte wie Hadoop & MapReduce als Teil eines umfassenden Ökosystems vorgestellt. Weitere wichtige Unterscheidungen sind Scale Up vs. Scale Out, Schema on Read vs. Schema on Write und die Evolution von NoSQL vs. SQL Datenbanken. 

Die Anwendung von Big Data erstreckt sich über vielfältige Bereiche, von wissenschaftlichen Projekten wie dem Large Hadron Collider (CERN) und dem ALMA Observatory bis hin zu kommerziellen Anwendungen wie der FIFA World Cup 2018 (SRG/Swiss TXT), Suchmaschinen (Google) und Smartphones (Apple). Es wird illustriert, wie Big Data zur Transformation von Produkten und Operationen sowie zur Kundenbindung genutzt wird, beispielsweise durch Internet of Things (IoT), Machine Learning, Smart Metering, Predictive Maintenance, Text Analytics, Natural Language Processing (NLP) und Clickstream Analytics.

 

KI ist wie ein digitaler Trainer, der uns nicht nur neue Fähigkeiten beibringt, sondern auch hilft, unsere eigene Fähigkeit zum Lernen zu verbessern, während wir gleichzeitig sicherstellen müssen, dass dieser Trainer verantwortungsbewusst und zum Wohl der Menschen agiert.

Dr. Daniel Benninger

Das Impulsreferat am PL Event des Bundesamtes für Informatik thematisiert, wie Künstliche Intelligenz (KI) uns (wieder) dazu befähigt, zu lernen.

Zunächst wird KI als die Fähigkeit digitaler Computer oder Roboter definiert, Aufgaben auszuführen, die typischerweise intelligenten Wesen zugeschrieben werden, welche sich an wechselnde Umstände anpassen können. 

Das Referat erläutert zunächst drei Haupttypen von KI:

  • Schwache oder Enge KI (Narrow AI): Führt spezifische Aufgaben in einem eng definierten Bereich aus
  • Starke oder Allgemeine KI (General AI): Besitzt allgemeine Problemlösungsfähigkeiten über verschiedene Bereiche hinweg („Human Level AI“)
  • Super-KI: Maschinen übertreffen menschliche Intelligenz in allen kognitiven Eigenschaften

Anschliessend werden typische Anwendungsbereiche der KI aufgeführt und erläutert:

  • Maschinelles Lernen (ML), inklusive künstlicher und tiefer neuronaler Netze (ANN, DNN)
  • Natürliche Sprachverarbeitung (NLP), z.B. für Chatbots, digitale Assistenten und Textgeneratoren
  • Computer Vision zur Analyse von Bildern und Videos
  • Reinforcement Learning (RL), angewendet in Spielen und Robotik

Die Herausforderungen bei der Einführung von KI, insbesondere im öffentlichen Sektor, umfassen etwa die folgenden Aspekte

  • den effektiven Umgang mit Daten,
  • notwendige KI-Fähigkeiten,
  • Zugang zu KI-Ökosystemen,
  • und … bestehende Kulturen und Beschaffungsmechanismen im öffentlichen Sektor

Zukünftige Herausforderungen beinhalten die Entwicklung von erklärbarer KI (Explainable AI), sicherer KI (Safe AI) zum Schutz vor Angriffen, und ethischer KI (Ethical AI), die sich mit gesellschaftlichen Auswirkungen wie autonomen Systemen/Fahrzeugen oder der Zukunft der Arbeit befasst.

Das übergeordnete Ziel muss sein, KI so zu gestalten, dass sie unsere Menschlichkeit fördert und nicht mindert oder gar ersetzt.