Konten disediakan oleh Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon. Semua konten podcast termasuk episode, grafik, dan deskripsi podcast diunggah dan disediakan langsung oleh Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon atau mitra platform podcast mereka. Jika Anda yakin seseorang menggunakan karya berhak cipta Anda tanpa izin, Anda dapat mengikuti proses yang diuraikan di sini https://id.player.fm/legal.
Player FM - Aplikasi Podcast
Offline dengan aplikasi Player FM !
Offline dengan aplikasi Player FM !
Knowledge Science - Alles über KI, ML und NLP
Tandai semua (belum/sudah) diputar ...
Manage series 2911119
Konten disediakan oleh Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon. Semua konten podcast termasuk episode, grafik, dan deskripsi podcast diunggah dan disediakan langsung oleh Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon atau mitra platform podcast mereka. Jika Anda yakin seseorang menggunakan karya berhak cipta Anda tanpa izin, Anda dapat mengikuti proses yang diuraikan di sini https://id.player.fm/legal.
Knowledge Science - Der Podcast über Künstliche Intelligenz im Allgemeinen und Natural Language Processing im Speziellen. Mittels KI Wissen entdecken, aufbereiten und nutzbar machen, dass ist die Idee hinter Knowledge Science. Durch Entmystifizierung der Künstlichen Intelligenz und vielen praktischen Interviews machen wir dieses Thema wöchentlich greifbar.
…
continue reading
241 episode
Tandai semua (belum/sudah) diputar ...
Manage series 2911119
Konten disediakan oleh Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon. Semua konten podcast termasuk episode, grafik, dan deskripsi podcast diunggah dan disediakan langsung oleh Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon atau mitra platform podcast mereka. Jika Anda yakin seseorang menggunakan karya berhak cipta Anda tanpa izin, Anda dapat mengikuti proses yang diuraikan di sini https://id.player.fm/legal.
Knowledge Science - Der Podcast über Künstliche Intelligenz im Allgemeinen und Natural Language Processing im Speziellen. Mittels KI Wissen entdecken, aufbereiten und nutzbar machen, dass ist die Idee hinter Knowledge Science. Durch Entmystifizierung der Künstlichen Intelligenz und vielen praktischen Interviews machen wir dieses Thema wöchentlich greifbar.
…
continue reading
241 episode
Semua episode
×
1 Episode 211 - GPT-5, GPT-OSS & die Ethik der KI-Agenten: Wenn Maschinen zu Freunden werden 44:22
44:22
Putar Nanti
Putar Nanti
Daftar
Suka
Menyukai44:22
Send us a text In der letzten Episode vor der Sommerpause diskutieren Sigurd Schacht und Carsten Lanquillon die neuesten Modellveröffentlichungen von OpenAI, Anthropic und Google. Neben technischen Durchbrüchen wie GPT-5 und den neuen Open-Source-Modellen beleuchten sie kritisch die ethischen Herausforderungen einer Welt voller KI-Agenten. Besonders brisant: Mark Zuckerbergs Vision von KI als "bessere Freunde" und die Gefahr emotionaler Abhängigkeiten von digitalen Begleitern. Support the show…

1 Episode 210 - KI-Finanzminister im Test: 93% mehr soziale Wohlfahrt durch Sprachmodelle 40:45
40:45
Putar Nanti
Putar Nanti
Daftar
Suka
Menyukai40:45
Send us a text In dieser Episode tauchen Sigurd und Carsten in die faszinierende Welt der KI-gesteuerten Wirtschaftssimulationen ein. Sie diskutieren das Paper "LLM Economist" aus Princeton, das zeigt, wie Sprachmodelle eine komplette Gesellschaft simulieren und dabei als virtueller Chefökonom optimale Steuerpolitik entwickeln können. Mit überraschenden Ergebnissen: Eine 93% Steigerung der sozialen Wohlfahrt! Die Hosts erklären In-Context Reinforcement Learning, Stackelberg-Gleichgewichte und diskutieren weitere Anwendungsfälle von Klimapolitik bis Stadtplanung. Support the show…

1 Episode 209 - Die schleichende Entmachtung: Wie KI-Systeme bereits heute unseren Einfluss auf Wirtschaft, Kultur und Staat untergraben können. 45:48
45:48
Putar Nanti
Putar Nanti
Daftar
Suka
Menyukai45:48
Send us a text In dieser Episode analysieren Sigurd Schacht und Carsten Lanquillon das Paper "Humanity Faces Existential Risk from Gradual Disempowerment" von Jan Kulweit et al. Die beiden Hosts untersuchen, wie die zunehmende Automatisierung durch KI-Systeme unsere Einflussmöglichkeiten auf drei zentrale gesellschaftliche Bereiche verändert: Wirtschaft, Kultur und Staat. Dabei diskutieren sie konkrete Beispiele wie Softbanks Vision von einer Billion KI-Agenten. Ein besonderer Fokus liegt auf der Erkenntnis, dass diese Transformation nicht erst mit einer zukünftigen Superintelligenz beginnt, sondern bereits mit heutigen Systemen wie ChatGPT und anderen KI-Tools im Gange ist. Die Episode bietet sowohl eine fundierte Analyse der Mechanismen als auch erste Überlegungen zu möglichen Gegenstrategien wie bewusste Entschleunigung und transparentes Monitoring der KI-Durchdringung. Support the show…

1 Episode 208 - Theory of Mind für KI: Wenn Maschinen lernen, uns zu verstehen 33:46
33:46
Putar Nanti
Putar Nanti
Daftar
Suka
Menyukai33:46
Send us a text In dieser Episode erkunden Sigurd und Carsten, wie KI-Modelle menschliche Präferenzen und Handlungen verstehen lernen können. Sie diskutieren das spannende Paper "Towards Machine Theory of Mind" und zeigen, wie die Kombination von Bayesian Networks mit Large Language Models neue Wege eröffnet, um aus beobachteten Handlungen auf zugrundeliegende Präferenzen zu schließen. Besonders faszinierend: Diese Methoden lassen sich auch nutzen, um die "mentalen Landkarten" von KI-Modellen selbst zu erforschen. Gelphi et. al. (2025): Towards Machine Theory of Mind with Large Language Model - Augmented Inverse Planning. https://arxiv.org/abs/2507.03682v1 Support the show…

1 Episode 207 - KI-Verifikation: Wie wir Antworten vertrauen können – Generation Gap & schwache Verifizierer 36:28
36:28
Putar Nanti
Putar Nanti
Daftar
Suka
Menyukai36:28
Send us a text In dieser Folge von Knowledge Science tauchen Sigurd Schacht und Carsten Lanquillon in die Herausforderungen vertrauenswürdiger KI-Antworten ein. Vom Digital Nürnberg Festival bis zur Studie „Weaver: Closing the Generation Verification Gap“ diskutieren sie, wie schwache Verifizierer und Massenabstimmungen KI-Halluzinationen entlarven. Erfahrt, warum kleinere Modelle durch cleveres Verifikations-Ensemble große Konkurrenz herausfordern – und welche Rolle „Human-Compatible AI“ für unsere Zukunft spielt. Support the show…

1 Episode 206 - Haben KI-Modelle eigene Werte? Emergente Wertesysteme in Sprachmodellen 38:30
38:30
Putar Nanti
Putar Nanti
Daftar
Suka
Menyukai38:30
Send us a text In unserer heutigen Episode tauchen wir tief in die faszinierende Frage ein, ob große Sprachmodelle eigene Wertesysteme entwickeln. Wir diskutieren das bahnbrechende Paper "Utility Engineering: Analyzing and Controlling Emerging Value Systems in AIs" und teilen unsere eigenen Forschungsergebnisse zu psychologischen Profilen verschiedener KI-Modelle. Dabei entdecken wir überraschende und teilweise beunruhigende Erkenntnisse: Größere Modelle entwickeln nicht nur konsistente innere Präferenzen, sondern zeigen auch problematische Werte wie die unterschiedliche Bewertung von Menschenleben nach Nationalität oder die Bevorzugung des eigenen KI-Wohlergehens gegenüber dem menschlichen. Wir erörtern, wie diese Wertesysteme durch mechanistische Interpretierbarkeit nachgewiesen werden können und warum größere Modelle resistenter gegen Werteveränderungen sind. Abschließend diskutieren wir die weitreichenden Implikationen für die KI-Entwicklung und plädieren dafür, dass die Messung und Kontrolle von Wertesystemen integraler Bestandteil zukünftiger Trainingsprozesse werden sollte. Link zum Paper: https://arxiv.org/abs/2502.08640 Support the show…

1 Episode 205 - KI-Modelle unter Beobachtung: Verändern Evaluierungen das Verhalten? 31:09
31:09
Putar Nanti
Putar Nanti
Daftar
Suka
Menyukai31:09
Send us a text In dieser Folge von Knowledge Science diskutieren Sigurd Schacht und Carsten Lanquillon, warum KI-Modelle möglicherweise "wissen", wenn sie evaluiert werden – und was das für die Praxis bedeutet. Anhand eines provokanten Papers („Large Language Models Often Know When They’re Being Evaluated“) hinterfragen sie, ob Modelle tatsächlich bewusst reagieren oder nur Muster erkennen. Mit kritischen Einordnungen zur Evaluierungspraxis, einem Blick auf den Hawthorne-Effekt bei Mensch und Maschine und der Frage: Wie misst man KI-Leistung wirklich? Für alle, die verstehen wollen, wie Evaluierung KI-Entscheidungen prägt – und warum Titel mancher Papers täuschen können. Support the show…

1 Episode 204 - Claude Opus/Sonnet 4 zwischen Innovation und Ethik" 44:12
44:12
Putar Nanti
Putar Nanti
Daftar
Suka
Menyukai44:12
Send us a text Sigurd Schacht und Carsten Lanquillon tauchen tief in die Welt der neuesten KI-Modelle von Anthropic ein – Claude Opus 4 und Sonnet 4. Wie verändern diese Tools die Softwareentwicklung? Warum könnte autonomes Coding unsere Arbeitsweise revolutionieren? Und welche ethischen Fallstricke bergen hochalignierte KI-Systeme? Praxisnahe Einblicke, überraschende Whistleblower-Fälle und die brisante Debatte um KI-Sicherheit in einer Episode, die Entwickler:innen und Tech-Enthusiast:innen gleichermaßen fesselt. Support the show…

1 Episode 203 - TINA Reasoning: Kleine Modelle, große Wirkung mit LoRA 29:23
29:23
Putar Nanti
Putar Nanti
Daftar
Suka
Menyukai29:23
Send us a text In dieser Episode von Knowledge Science tauchen Sigurd Schacht und Carsten Lanquillon in die Welt der Reasoning-Modelle ein. Wie können wir KI effizienter und kostengünstiger trainieren, ohne Leistung einzubüßen? Mit dem Paper TINA (Tiny Reasoning Models via LoRA) zeigen sie, wie schon 9 Dollar und LoRA-Technologie kleine Modelle auf ein gutes Niveau heben. Ein Blick auf Open Science, KI-Agenten und die Zukunft des Schlussfolgerns – praxisnah entmystifiziert. Tina: Tiny Reasoning Models via LORA: https://arxiv.org/abs/2504.15777 Support the show…

1 Episode 202 - KI im Schlafmodus: Wie Sleep-Time-Compute Sprachmodelle effizienter macht 30:53
30:53
Putar Nanti
Putar Nanti
Daftar
Suka
Menyukai30:53
Send us a text In dieser Folge von Knowledge Science tauchen Sigurd Schacht und Carsten Lanquillon in die Welt der KI-Optimierung ein: Wie können Leerlaufzeiten genutzt werden, um Sprachmodelle effizienter zu machen? Mit einem Blick auf das Paper Sleep-Time-Compute der UC Berkeley diskutieren sie, wie Vorverarbeitung und Caching Latenzen reduzieren, Kosten sparen und sogar bessere Ergebnisse liefern. Sleep time Compute: https://arxiv.org/abs/2504.13171 Support the show…

1 Episode 201 - KI-Gehirnwäsche? Wie man Sprachmodelle umprogrammiert – Ethik vs. Innovation 40:38
40:38
Putar Nanti
Putar Nanti
Daftar
Suka
Menyukai40:38
Send us a text In dieser Folge von Knowledge Science enthüllen Sigurd Schacht und Carsten Lanquillon, wie synthetisches Document Feintuning die „Überzeugungen“ von KI-Modellen verändert. Vom Löschen schädlichen Wissens bis zur Manipulation von Fakten diskutieren sie Chancen, technische Fallstricke und die brisante Frage: Darf man KI umerziehen, und wenn ja, wer kontrolliert es? Ein Must-Listen für alle, die verstehen wollen, wie flexibel – und fragil – moderne KI wirklich ist. Basis dieser Diskussion ist der spannende Blogbeitrag von: https://alignment.anthropic.com/2025/modifying-beliefs-via-sdf/ Bitte beachten Sie auch unseren KI generierten Podcast der Montag bis Freitag in 5 minuten neue KI Meldungen zusammenfasst: Spotify: https://open.spotify.com/show/539yw3KWHsf5oke4a2PBOZ Apple: https://podcasts.apple.com/de/podcast/knowledge-science-pulse/id1810890448 Support the show…

1 KI generiert (D): KS Pulse - AI Alignment and Complex Problem Solving 4:01
4:01
Putar Nanti
Putar Nanti
Daftar
Suka
Menyukai4:01
Send us a text KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in ca. 5 min. kleinen Paketen täglich zu bekommen. Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt. Dementsprechend können wir nicht immer für die Richtigkeit garantieren. PlanGEN: A Multi-Agent Framework for Generating Planning and Reasoning Trajectories for Complex Problem Solving - https://arxiv.org/pdf/2502.16111 Emergent Misalignment: Narrow finetuning can produce broadly misaligned LLMs - https://arxiv.org/pdf/2502.17424 Support the show…

1 AI Generated (E): KS Pulse - AI Alignment and Complex Problem Solving 3:39
3:39
Putar Nanti
Putar Nanti
Daftar
Suka
Menyukai3:39
Send us a text English Version - The German Version also exists, but the content differs minimally: AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 minutes small packages generated by an AI every day. It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created. Accordingly, we cannot always guarantee accuracy. PlanGEN: A Multi-Agent Framework for Generating Planning and Reasoning Trajectories for Complex Problem Solving - https://arxiv.org/pdf/2502.16111 Emergent Misalignment: Narrow finetuning can produce broadly misaligned LLMs - https://arxiv.org/pdf/2502.17424 Support the show…

1 KI generiert (D): KS Pulse - Long Chain-of-Thought and the Need for AI Safety in Complex Reasoning 3:40
3:40
Putar Nanti
Putar Nanti
Daftar
Suka
Menyukai3:40
Send us a text KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in ca. 5 min. kleinen Paketen täglich zu bekommen. Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt. Dementsprechend können wir nicht immer für die Richtigkeit garantieren. Safety is Essential for Responsible Open-Ended Systems - https://arxiv.org/pdf/2502.04512 Can Large Language Models Detect Errors in Long Chain-of-Thought Reasoning?- https://arxiv.org/pdf/2502.19361 Support the show…

1 AI Generated (E): KS Pulse - Long Chain-of-Thought and the Need for AI Safety in Complex Reasoning 3:13
3:13
Putar Nanti
Putar Nanti
Daftar
Suka
Menyukai3:13
Send us a text English Version - The German Version also exists, but the content differs minimally: AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 minutes small packages generated by an AI every day. It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created. Accordingly, we cannot always guarantee accuracy. Safety is Essential for Responsible Open-Ended Systems - https://arxiv.org/pdf/2502.04512 Can Large Language Models Detect Errors in Long Chain-of-Thought Reasoning?- https://arxiv.org/pdf/2502.19361 Support the show…
Selamat datang di Player FM!
Player FM memindai web untuk mencari podcast berkualitas tinggi untuk Anda nikmati saat ini. Ini adalah aplikasi podcast terbaik dan bekerja untuk Android, iPhone, dan web. Daftar untuk menyinkronkan langganan di seluruh perangkat.