Log in

goodpods headphones icon

To access all our features

Open the Goodpods app
Close icon
headphones
Irgendwas mit Daten - Datenanalyse in der Industrie

Irgendwas mit Daten - Datenanalyse in der Industrie

Barbara Bredner

Auch in Ihren Daten stecken wertvolle Informationen! Möchten Sie mit Daten Ihre Produkte schneller entwickeln? Ihre Versuche effizienter auswerten? Ihre Prozesse besser verstehen und optimieren? Dann ist dieser Podcast für Sie. Barbara Bredner berät und begleitet seit 2003 Menschen in der Industrie bei der Datenauswertung in Forschung und Entwicklung, Prozess Engineering und Qualitätsmanagement. In ihrem Podcast erklärt sie, wie Sie eigene Daten auswerten und gezielt nutzen können. Sie gibt Tipps für solide und nachvollziehbare Analysen, damit Sie mit größerer Sicherheit und Klarheit belastbare Ergebnisse erreichen. Das Ziel sind abgesicherte Entscheidungen auf Grundlage Ihrer Datenanalysen!
bookmark
Share icon

All episodes

Best episodes

Top 10 Irgendwas mit Daten - Datenanalyse in der Industrie Episodes

Goodpods has curated a list of the 10 best Irgendwas mit Daten - Datenanalyse in der Industrie episodes, ranked by the number of listens and likes each episode have garnered from our listeners. If you are listening to Irgendwas mit Daten - Datenanalyse in der Industrie for the first time, there's no better place to start than with one of these standout episodes. If you are a fan of the show, vote for your favorite Irgendwas mit Daten - Datenanalyse in der Industrie episode by adding your comments to the episode page.

Irgendwas mit Daten - Datenanalyse in der Industrie - #44 Korrelation, Regression, ANOVA - Alles das Gleiche?

#44 Korrelation, Regression, ANOVA - Alles das Gleiche?

Irgendwas mit Daten - Datenanalyse in der Industrie

play

03/09/22 • 25 min

Unterschiede und Gemeinsamkeiten bei der Zusammenhangs- und Einfluss-Analyse

Korrelation, Regression und ANOVA - alles das Gleiche?

👉 Woher kommen Korrelation und Regression?
👉 Woher kommt die Varianzanalyse (ANOVA)?
👉 Was sind die Gemeinsamkeiten von ANOVA und Regression?

Wenn Korrelation, Regression und Varianzanalyse (ANOVA, Analysis Of Variance) das Gleiche wären, bräuchten wir keine unterschiedlichen Namen für die drei Verfahren - oder? Die Unterschiede sind tatsächlich eher historisch gewachsen und liegen weniger in den Unterschieden zwischen den Verfahren selbst.

Klassischerweise wurde die Regression verwendet, wenn die Einflussgrößen messbar oder variabel sind, z. B. Temperatur und Druck. Die Varianzanalyse oder ANOVA bewertete klassischerweise kategoriale oder attributive Einflüsse wie verschiedene Maschinen oder Werkzeuge. In der praktischen Anwendung gab und gibt es häufig beide Arten von Einflüssen, so dass die ursprünglichen Methoden weiterentwickelt wurden.

Die Folge gibt einen Einblick in die geschichtliche Entwicklung von Korrelation, Regression und ANOVA und zeigt auf, wie diese Verfahren mit dem allgemeinen linearen Modell (general linear model, GLM) zusammehängen.

Links

👉 Kinship & Correlation
👉 Datenanalyse-Methoden & Leben von Ronald A. Fisher
👉 Rutherford, Andres (2000) "Introducing Anova and Ancova: A GLM Approach (Introducing Statistical Methods)" Sage Publications Inc., ISBN 9780761951612
👉 Stigler, Stephen M. (1986) "The History of Statistics: The Measurements of Uncertainity Before 1900" Harvard University Press, ISBN 9780674403406

Ich freue mich über Ihre Ideen & Nachrichten!

Barbara Bredner, [email protected]

bookmark
plus icon
share episode
Irgendwas mit Daten - Datenanalyse in der Industrie - #45 Wie funktioniert Einfluss-Analyse bei nicht-normalverteilten Ergebnissen?
play

03/16/22 • 21 min

warum "normal-verteilt" eher nicht normal ist

Wie funktioniert Einfluss-Analyse bei nicht-normalverteilten Ergebnissen?

👉 Warum ist das Ergebnis nicht normal-verteilt?
👉 Wie funktionieren verallgemeinerte lineare Modelle (GLM: Generalized Linear Models)?
👉 Sind Machine Learning Modelle auch GLMs?

Die Normalverteilung von Messwerten wird für viele Methoden vorausgesetzt und sie scheint oft "das Normalste" von der Welt zu sein - bis echte Messwerte aufgenommen werden. Die sind selten normalverteilt und damit stellt sich schnell die Frage, warum die Messwerte nicht aus einer "normalen" Verteilung kommen.

Mögliche Antworten darauf erhalten Sie in der aktuellen Folge. Außerdem geht es darum, wie Auswertungen bei nicht-normalverteilten Messdaten z. B. mit GLMs funktionieren und wie die verallgemeinerten linearen Modelle mit den Methoden des maschinellen Lernens zusammenhängen.

Links

👉 Hilbe, S. (2010) "Generalized Linear Models", Encyclopedia of Mathematics
👉 Great Learnings Team (2021) "Generalized Linear Model | What does it mean?"
👉 Clark, M. (2019) "Generalized Additive Models"

Schreiben Sie mir!

Ich freue mich über Ihre Nachricht! Barbara Bredner, [email protected]

bookmark
plus icon
share episode
Irgendwas mit Daten - Datenanalyse in der Industrie - #49 Zuverlässigkeit und Lebensdauer

#49 Zuverlässigkeit und Lebensdauer

Irgendwas mit Daten - Datenanalyse in der Industrie

play

04/13/22 • 19 min

Wie belastbar sind Komponenten und Produkte?

Zuverlässigkeit & Lebensdauer

👉 Was können Verfahren für Zuverlässigkeit & Lebensdauer?
👉 Wie entsteht die Badewannen-Kurve?
👉 Was sind Besonderheiten von Zuverlässigkeits-Tests?

Methoden aus dem Bereich Zuverlässigkeit & Lebensdauer sind spezielle Auswertungsverfahren, mit denen die Haltbarkeit von Bauteilen, Produkten oder Systemen bewertet wird. Oft wird hierbei die so genannte Badewannenkurve als Modell für das Ausfallverhalten zu unterschiedlichen Zeitpunkten im Produktlebenszyklus verwendet.

Daten aus dem Bereich Zuverlässigkeit und Lebensdauer haben einige Besondernheite wie beispielsweise geringe Anzahl bei gleichzeitig hoher Anforderung an die Aussagekraft der Analysen.

Mit dieser Folge beginnt eine Serie zum Thema "Zuverlässigkeit und Lebensdauer". Freuen Sie sich auf Informationen zur Weibull-Verteilung, den Nachweis von Zuverlässigkeits-Anforderungen und der Ermittlung von Prüfmengen sowie der Einfluss-Analyse bei Belastungsprüfungen!

Links

👉 Reliability Academy Stuttgart

Haben Sie auch Themen-Ideen oder brauchen Sie Unterstützung bei der Datenanalyse?

Schreiben Sie mir gerne! Barbara Bredner, [email protected]

bookmark
plus icon
share episode
Irgendwas mit Daten - Datenanalyse in der Industrie - #50 Die Weibull-Verteilung

#50 Die Weibull-Verteilung

Irgendwas mit Daten - Datenanalyse in der Industrie

play

04/20/22 • 17 min

DIE Verteilung bei Zuverlässigkeit & Lebensdauer-Analysen

Die Weibull-Verteilung

👉 Woher kommt die Weibullverteilung?
👉 Wie wird die Weibullverteilung bestimmt?
👉 Was sind typische Kennzahlen der Weibull-Verteilung?

Bei der Zuverlässigkeits- und Lebensdauer-Analyse wird die Weibull-Verteilung zur Beschreibung des Ausfallverhaltens eingesetzt. Hierfür werden Kennzahlen wie Ausfallsteilheit und charakterstische Lebensdauer aus den Daten ermittelt. Oft werden auch bestimmte Kenngrößen wie die B10-Lebensdauer gefordert.

In dieser Folge erfahren Sie, warum die Weibull-Verteilung gar nicht von Waloddi Weibull stammt. Es geht um Methoden, mit denen die Parameter der Weibull-Verteilung wie charakteristische Lebensdauer und Ausfallsteilheit ermittelt werden können und darum, welche Aussagen mit MTTF, MTBF und B10 gemacht werden können.

Links

👉 80 Jahre Rosin-Rammler-Sperling-Bennett-Verteilung

Schreiben Sie mir!

Ich freue mich über Ihre Nachricht! Barbara Bredner, [email protected]

bookmark
plus icon
share episode
Irgendwas mit Daten - Datenanalyse in der Industrie - #46 Wie gut funktionieren Machine Learning Modelle

#46 Wie gut funktionieren Machine Learning Modelle

Irgendwas mit Daten - Datenanalyse in der Industrie

play

03/23/22 • 25 min

Kennzahlen für die Modell-Quaität bei messbaren Zielgrößen (Regression)

Wie gut funktionieren Machine Learning Modelle?

👉 Welche Qualitäts-Kriterien gibt es für Machine Learning?
👉 Wie wird Erklär-Qualität bei der Regression bewertet?
👉 Wann ist die Anpassungsgüte R2 groß genug?

Ein Modell mit Methoden des maschinellen Lernens wie z. B. Regression oder Klassifikation zu bauen ist einfach. Solche Modelle können uns beispielsweise optimale Arbeitspunkte liefern oder dabei helfen nachzuweisen, dass die Anforderungen in einem bestimmten Prozessfenster erfüllt werden.

Bevor ein Modell produktiv genutzt wird, sollten Sie zuerst prüfen, ob das Modell gut genug ist. In dieser Folge erhalten Sie Informationen dazu, welche Kenngrößen für die Modell- bzw. Erklär-Qualität genutzt werden und warum die beliebteste Kennzahl, die Anpassungsgüte R2, allein zu wenig ist. Alternative Kennzahlen wie die Prognosegüte liefern weitere wichtige Erkenntnisse über die Qualität des ML Modells.

Links

👉 Barbara Bredner (2021) "NOT Statistik. Nachweise führen, Optimierungen finden, Toleranzen berechnen mit Minitab und R"
👉 Anber Arif: Cross Validation in Machine Learning
👉 Shervine Amidi: Machine Learning tips and tricks cheatsheet
👉 Adi Bronshtein: Train/Test Split and Cross Validation in Python

Schreiben Sie mir!

Ich freue mich über Ihre Nachricht! Barbara Bredner, [email protected]

bookmark
plus icon
share episode
Irgendwas mit Daten - Datenanalyse in der Industrie - #43 Datenvisualisierungen & Tools

#43 Datenvisualisierungen & Tools

Irgendwas mit Daten - Datenanalyse in der Industrie

play

03/02/22 • 20 min

Bunte Bildchen sind super - oder etwa nicht?

Datenvisualisierungen & Tools

👉 Warum verwenden wir Visualisierungen?
👉 Wie finde ich die "richtige" Visualisierung?
👉 Was ist das beste Tool für Datenvisualsierungen?

"1 Bild sagt mehr als 1000 Worte." Dieser Satz ist absolut abgegriffen und trifft trotzdem den Nagel auf den Kopf: Wir Menschen können Informationen aus Bildern deutlich schneller aufnehmen und länger behalten als Text-Informationen. Alle Informationen in Bilder zu packen ist trotzdem nicht sinnvoll und wie gut eine Daten-Visualisierung funktioniert, hängt von vielen Aspekten ab.

Diese Folge liefert Ihnen Informationen dazu, wie Sie die beste Visualisierung für eine bestimmte Situation finden können und wann Visualisierungen eine schlechte Wahl sind. Sie bekommen Kriterien an die Hand, mit denen Sie gezielt ein passendes Visualisierungs-Tool auswählen können. Zum Ausprobieren von Tools finden Sie Links zu Datensätzen und einer Datensatz-Suchmaschine in den Shownotes.

Links

👉 Storytelling with Data - Challenges & Exercises
👉 Kaggle Datasets
👉 Open Data on AWS
👉 Datensatz-Suchmaschine von Google
👉 JMP Graph Builder Beispiele
👉 R package esquisse für Grafiken in R über eine Benutzeroberfläche
👉 Gartner Report: Magic Quadrant for Analytics and BI Platforms 2021

Schreiben Sie mir!

Ich freue mich über Ihre Nachricht! Barbara Bredner, [email protected]

bookmark
plus icon
share episode
Irgendwas mit Daten - Datenanalyse in der Industrie - #48 Was sind wichtige Schritte in der DoE

#48 Was sind wichtige Schritte in der DoE

Irgendwas mit Daten - Datenanalyse in der Industrie

play

04/06/22 • 21 min

Von der Problemstellung über die Prozessbeschreibung zur Auswertung & Nutzung

Was sind wichtige Schritte in der DoE?

👉 Womit fängt die DoE an?
👉 Welche Vorarbeiten sind notwendig bzw. sinnvoll?
👉 Wann ist ein Versuchsplan zu wenig?

Viele Menschen denken bei der statistischen Versuchsplanung und -auswertung (Design of Experiments, DoE) zuerst daran, dass der Versuchsplan gut gewählt sein muss. Das stimmt, doch bevor es um die Auswahl und Erstellung eines geeigneten Versuchsplans geht, sind andere Schritte zur Vorbereitung notwendig.

In dieser Folge erhalten Sie Informationen zu den ersten Schritten sowie zu sinnvollen und notwendigen Vorarbeiten bei der DoE. Sie bekommen Entscheidungskriterien dafür, ob ein Versuchsplan ausreichend ist oder weitere Versuche sinnvoll sein können.

Links

👉 Statistische Versuchsplanung und -auswertung (DoE) Ablauf

Schreiben Sie mir!

Ich freue mich über Ihre Nachricht! Barbara Bredner, [email protected]

bookmark
plus icon
share episode
Irgendwas mit Daten - Datenanalyse in der Industrie - #47 In Ordnung oder nicht in Ordnung, das ist hier die Frage!

#47 In Ordnung oder nicht in Ordnung, das ist hier die Frage!

Irgendwas mit Daten - Datenanalyse in der Industrie

play

03/30/22 • 25 min

Kennzahlen für die Modell-Quaität bei attributiven Zielgrößen (Klassifizierung)

In Ordnung oder nicht in Ordnung, das ist hier die Frage!

👉 Wie funktioniert die Bewertung der Erklär-Qualität bei attributiven Zielgrößen (gut/schlecht)?
👉 Was ist die Konfusionsmatrix?
👉 Welche Kennzahlen werden für die Erklär-Qualität bei der Klassifizierung eingesetzt?

Vor der Nutzung von Modellen zum Beispiel für die Optimierung von Versuchs- oder Prozess-Einstellungen sollte immer die Aussagekraft oder Erkär-Qualität bewertet werden. In dieser Folge erfahren Sie, mit welchen Kennzahlen Machine Learning Modelle evaluiert werden, die eine attributive Zielgröße (gut/schlecht, in Ordnung/nicht in Ordnung) haben.

Diese Methoden werden eingesetzt, wenn das Versuchs- oder Prozess-Ergebnis eine Klassifizierung ist. Je treffsicherer das ML Modell vorhersagen kann, in welcher Klasse oder Kategorie das Ergebnis landet, desto besser ist es für den produktiven Einsatz geeignet. In dieser Folge bekommen Sie Informationen und Erklärungen zur Konfusionmatrix und den wichtigsten Kennzahlen zur Bewertung der Erklär-Qualität von Modellen mit attributiven Zielgrößen. Darüber hinaus erfahren Sie, wie die ROC-Kurve entsteht und warum die Fläche unter der Kurve (AUC) für ein gutes Modell deutlich größer als 0,5 sein muss.

Links

👉 Schwangere Männer Bild
👉 In Ordnung oder nicht in Ordnung - Erklär-Qualität bei attributiven Zielgrößen: Konfusionsmatrix, Accuracy, Precision, Recall, Speficity, F1-Score
👉 Visualisierung von ROC und AUC: What is AUC?

Schreiben Sie mir!

Ich freue mich über Ihre Nachricht! Barbara Bredner, [email protected]

bookmark
plus icon
share episode
Irgendwas mit Daten - Datenanalyse in der Industrie - #42 Wie sinnvoll sind Digitalisierung & Automatisierung in der Datenanalyse?

#42 Wie sinnvoll sind Digitalisierung & Automatisierung in der Datenanalyse?

Irgendwas mit Daten - Datenanalyse in der Industrie

play

02/23/22 • 23 min

Wie aus unbegrenzten Möglichkeiten gezielte Aktionen werden

Wie sinnvoll sind Digitalisierung & Automatisierung in der Datenanalyse?

👉 Warum ist Digitalisierung & Automatisierung in der Datenanalyse wichtig?
👉 Wie sinnvoll ist die Digitalisierung von Daten?
👉 Wie hilfreich ist die Automatisierung bei der Datenauswertung?

Wir schreiben das Jahr 2022. Unendliche Möglichkeiten in der Digitalisierung liegen vor uns. Bei der Automatisierung in der Datenanalyse können wir (fast) alles realisieren. Bald wird jede Analyse auf Knopfdruck, oder noch besser einfach so voll automatisiert da sein. Wir müssen nur noch das auswählen und anschauen, was wir brauchen.

So weit sind wir noch lange nicht. (Zum Glück?) Aktuell muss präzise entschieden und ausgewählt werden, welche digitialisiert werden sollen und bei welchen Datenanalysen eine Automatisierung sinnvoll ist. Spoiler: Es kommt darauf an und wie immer gilt: alles gleichzeitig zu machen ist weder möglich noch sinnvoll.

Links

👉 Goldratt, Eliyahu M. und Jeff Cox (2013). Das Ziel: Ein Roman über Prozessoptimierung. Campus Verlag. ISBN 978-3593398532
👉 Seven Ways You Interact With AI Before Lunch
👉 Anwendungsfall-Canvas von Datentreiber
👉 Datenstrategie-Canvas von Datentreiber

Schreiben Sie mir!

Ich freue mich über Ihre Nachricht! Barbara Bredner, [email protected]

bookmark
plus icon
share episode
Irgendwas mit Daten - Datenanalyse in der Industrie - #41 Signifikant gleich - geht das überhaupt?

#41 Signifikant gleich - geht das überhaupt?

Irgendwas mit Daten - Datenanalyse in der Industrie

play

02/16/22 • 19 min

Warum sich Gleichheit nicht beweisen lässt

signifikant gleich - geht das überhaupt?

👉 Warum können wir keine Gleichheit beweisen?
👉 Wie funktioniert der Äquivalenz-Nachweis?
👉 Wofür können wir Äquivalenz-Nachweise verwenden?

Sie wollen (oder müssen) zeigen, dass etwas gleich ist. Nichts leichter als das, oder? Wir nehmen einen statistischen Test und haben dann signifikante Gleichheit bewiesen. Das geht so aus mehreren Gründen nicht, die in dieser Folge erklärt werden. Außerdem erhalten Sie Hinweise darauf, wie Sie den Nachweis für "gleich genug" oder äquivalent machen können.

Literatur

👉 Wellek, Stefan (2010). Testing Statistical Hypotheses of Equivalence and Noninferiority.

  1. ed. Chapman und Hall. ISBN 9781439808184. https://www.routledge.com/Testing-Statistical-Hypotheses-of-Equivalence-and-Noninferiority/Wellek/p/book/9781439808184#

Ich freue mich auf Ihre Nachricht

Barbara Bredner, [email protected]

bookmark
plus icon
share episode

Show more best episodes

Toggle view more icon

FAQ

How many episodes does Irgendwas mit Daten - Datenanalyse in der Industrie have?

Irgendwas mit Daten - Datenanalyse in der Industrie currently has 10 episodes available.

What topics does Irgendwas mit Daten - Datenanalyse in der Industrie cover?

The podcast is about How To, Natural Sciences, Podcasts, Education, Science, Data Science and Machine Learning.

What is the most popular episode on Irgendwas mit Daten - Datenanalyse in der Industrie?

The episode title '#50 Die Weibull-Verteilung' is the most popular.

What is the average episode length on Irgendwas mit Daten - Datenanalyse in der Industrie?

The average episode length on Irgendwas mit Daten - Datenanalyse in der Industrie is 22 minutes.

How often are episodes of Irgendwas mit Daten - Datenanalyse in der Industrie released?

Episodes of Irgendwas mit Daten - Datenanalyse in der Industrie are typically released every 7 days.

When was the first episode of Irgendwas mit Daten - Datenanalyse in der Industrie?

The first episode of Irgendwas mit Daten - Datenanalyse in der Industrie was released on Feb 16, 2022.

Show more FAQ

Toggle view more icon

Comments