Log in

goodpods headphones icon

To access all our features

Open the Goodpods app
Close icon
Greatminds podcast - Waarom evalueren we (Open Source) LLM’s?

Waarom evalueren we (Open Source) LLM’s?

Greatminds podcast

04/23/24 • 24 min

plus icon
bookmark
Share icon

Send us a text

Deze podcast duikt diep in de uitdagingen en benodigdheden bij het evalueren van open source Large Language Models (LLMs). Vanuit hun expertises als architect en data scientist bespreken Hildo van Es en Robin Smits specifieke incidenten om het cruciale belang van grondige evaluatie van LLM's te onderstrepen. Denk aan zoals de misstappen van DPD’s chatbot en Cortana’s ontwikkeling van ongewenste ideeën.
Van Es en Smits wijzen op de noodzaak van een brede reeks tests, inclusief ethische en bias-evaluaties, die afwijken van traditionele softwaretests. Verder wordt het gebruik van Hugging Face’s leaderboard en benchmarks aangehaald als essentiële hulpmiddelen voor het beoordelen van modelprestaties.
De discussie belicht ook het initiatief voor Nederlandstalige evaluaties en de implicaties van het testen van LLM's met bedrijfsspecifieke datasets, waarbij de complexiteit en de inherente risico’s van AI-modellen niet mogen worden onderschat.

04/23/24 • 24 min

plus icon
bookmark
Share icon

Generate a badge

Get a badge for your website that links back to this episode

Select type & size
Open dropdown icon
share badge image

<a href="https://goodpods.com/podcasts/greatminds-podcast-418084/waarom-evalueren-we-open-source-llms-58009401"> <img src="https://storage.googleapis.com/goodpods-images-bucket/badges/generic-badge-1.svg" alt="listen to waarom evalueren we (open source) llm’s? on goodpods" style="width: 225px" /> </a>

Copy