#22 Sicherheit von Large-Language-Modellen mit Dr. Lea Schönherr –WomenInCybersecurity
MP3•Beranda episode
Manage episode 459266393 series 3630099
Konten disediakan oleh Annabelle Theobald und Tobias Ebelshäuser im Gespräch mit CISPA-Forschenden, Annabelle Theobald, and Tobias Ebelshäuser im Gespräch mit CISPA-Forschenden. Semua konten podcast termasuk episode, grafik, dan deskripsi podcast diunggah dan disediakan langsung oleh Annabelle Theobald und Tobias Ebelshäuser im Gespräch mit CISPA-Forschenden, Annabelle Theobald, and Tobias Ebelshäuser im Gespräch mit CISPA-Forschenden atau mitra platform podcast mereka. Jika Anda yakin seseorang menggunakan karya berhak cipta Anda tanpa izin, Anda dapat mengikuti proses yang diuraikan di sini https://id.player.fm/legal.
Large-Language-Modelle (LLM) wie Chat GPT sind große generative Sprachmodelle, die mittels künstlicher Intelligenz in der Lage sind, Eingaben in natürlicher Sprache zu verstehen und zu verarbeiten. Sie kommen häufig auch mit komplexen Fragen und Anweisungen zurecht und produzieren Texte in bisher nie dagewesener Qualität. Die den Modellen zugrundeliegenden neuronale Netzwerke und Deep-Learning-Algorithmen können aber noch für sehr viel mehr eingesetzt werden als nur zum Chatten. So gibt es codegenerative Modelle, die – wie die Bezeichnung schon verrät – Code und damit ganze Computerprogramme generieren können. Doch egal ob natürlichsprachliches oder codegeneratives Modell ¬– sie alle haben Schwachstellen. Dr. Lea Schönherr erzählt uns in dieser Folge, wie sie Schwächen und Sicherheitslücken in den Modellen aufspürt, wo sie Gefahren bei der Nutzung von LLM sieht und wie wir als Nutzende damit umgehen können. Außerdem erzählt uns Lea, wie es sich als Elektro- und Informationstechnologin unter Informatiker:innen forscht. Spoiler: Ziemlich entspannt. Das Gespräch wurde in deutscher Sprache geführt. Viel Spaß beim Hören.
…
continue reading
39 episode