Inhalt
 In dieser Episode: 
  • Warum „Verstehen“ bei Maschinen nicht nur „Innenleben erklären“ bedeutet, sondern vor allem Anschlussfähigkeit und verlässliche Interaktion.
  • Die Lücke zwischen Information und Bedeutung: Warum eloquente Systeme nicht automatisch „Sinn“ liefern.
  • Warum Plausibilität verführt und wie man Zuverlässigkeit prüft.
  • Gespräch als Regelkreis: Rückkopplung, Tests, Abbruchkriterien.
  • Performative Verständlichkeit: Verstehen zeigt sich im Umgang, nicht im Bekenntnis.
  • Interface als Philosophie: Design macht Grenzen sichtbar oder verschleiert sie.
  • Sieben alltagstaugliche Regeln für eine nüchterne, sichere Kommunikation mit „Black Boxes“.
  • Ausblick auf Folge 34: Vertrauen als gerechtfertigte Erwartung unter Unsicherheit.
LITERATURHINWEISE 
Norbert Wiener. Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press, 1948. 
Claude Shannon, and Warren Weaver. The Mathematical Theory of Communication. University of Illinois Press, 1949. 
Gordon Pask. Conversation, Cognition and Learning: A Cybernetic Theory and Methodology. Elsevier, 1975. 
Lucy Suchman. Plans and Situated Actions: The Problem of Human-Machine Communication. Cambridge University Press, 1987. 
Donald Norman. The Design of Everyday Things. Basic Books, 1988. (rev. ed. 2013) 
Niklas Luhmann. Soziale Systeme: Grundriß einer allgemeinen Theorie. Suhrkamp, 1984. 
Zachary Lipton. “The Mythos of Model Interpretability.” Communications of the ACM, vol. 61, no. 10, 2018, pp. 36–43. doi:10.1145/3233231. 
Cynthia Rudin. “Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead.” Nature Machine Intelligence, vol. 1, 2019, pp. 206–215. doi:10.1038/s42256-019-0048-x. 
Tim Miller. “Explanation in Artificial Intelligence: Insights from the Social Sciences.” Artificial Intelligence, vol. 267, 2019, pp. 1–38. doi:10.1016/j.artint.2018.07.007. 
Finale Doshi-Velez and Been Kim. “Towards A Rigorous Science of Interpretable Machine Learning.” arXiv, 2017. (arXiv:1702.08608) 
NIST. AI Risk Management Framework (AI RMF 1.0). National Institute of Standards and Technology, 2023. (NIST AI 100-1) 
Stuart Russell. Human Compatible: Artificial Intelligence and the Problem of Control. Viking, 2019. 
Elena Esposito. The Future of Futures: The Time of Money in Financing and Society. Edward Elgar Publishing, 2011. 
Douglas Hofstadter. I Am a Strange Loop. Basic Books, 2007.