Artwork

内容由Kristoffer, Fredrik, Tobias提供。所有播客内容(包括剧集、图形和播客描述)均由 Kristoffer, Fredrik, Tobias 或其播客平台合作伙伴直接上传和提供。如果您认为有人在未经您许可的情况下使用您的受版权保护的作品,您可以按照此处概述的流程进行操作https://zh.player.fm/legal
Player FM -播客应用
使用Player FM应用程序离线!

Kodsnack 576 - Jag ger dig ett svar på måndag, med Vilhelm von Ehrenheim

53:46
 
分享
 

Manage episode 410130553 series 2166142
内容由Kristoffer, Fredrik, Tobias提供。所有播客内容(包括剧集、图形和播客描述)均由 Kristoffer, Fredrik, Tobias 或其播客平台合作伙伴直接上传和提供。如果您认为有人在未经您许可的情况下使用您的受版权保护的作品,您可以按照此处概述的流程进行操作https://zh.player.fm/legal

Fredrik snackar med Vilhelm von Ehrenheim om teknik som kan tänkas påverka det vi kallar AI framöver. Vilka tekniker är intressanta, och vad innebär de?

Vi diskuterar bland annat:

  • Vad innebär kontext för språkmodeller?
  • Multimodalitet - kunna resonera om text och bild samtidigt
  • Kunskapgrafer och RAG - tekniker för att försöka få svar som är “mer rätt” och har mindre risk att verka påhittade inom specifika sammanhang
  • Blir det fler stora generella modeller framöver, eller fler små och specialiserade?
  • Kunskapsgrafer och sökmotorer. Det pågår mycket utveckling kring att bättre knyta fakta och information från specifika områden - till exempel ditt företags situation just nu - till mer generellt tränade modeller, för att man inte ska behöva specialträna en modell för varje specifikt område, och inte heller behöva träna om varje gång omvärlden förändras
  • Agenter - sätt för modeller att interagera med som omgivning och utföra saker
  • Resonerande - vad menar man med det? Hur mäter man det? Och inte minst: hur tränar man egentligen modeller för att bli bättre på det?
  • Kommer det stora modellerna bli ännu större? Gör mer träningsdata mer nytta?
  • Och som avslutning: finns det några andra intressanta approacher som vi inte hör så mycket om för att det stora språkmodellerna just nu får all uppmärksamhet och investeringar?

Ett stort tack till Cloudnet som sponsrar vår VPS!

Har du kommentarer, frågor eller tips? Vi är @kodsnack, @thieta, @krig, och @bjoreman på Mastodon, har en sida på Facebook och epostas på info@kodsnack.se om du vill skriva längre. Vi läser allt som skickas.

Gillar du Kodsnack får du hemskt gärna recensera oss i iTunes! Du kan också stödja podden genom att ge oss en kaffe (eller två!) på Ko-fi, eller handla något i vår butik.

Länkar Titlar
  • AI lite mer konkret och framöver
  • Vad pågår mer konkret
  • Fler parametrar, mer av allt
  • Resonera om mer än bara text
  • Resonera om hur saker ser ut
  • Här är bra, relevant data
  • Slumpmässiga tokens från en distribution
  • Jag ger dig ett svar på måndag
  • Komplexa kunskapssystem
  • Någon som jobbar autonomt för ens egen räkning
  • Lära en robot öppna en dörr
  • Prova handtaget
  • Agentstrukturen
  • Väldigt mycket kontext
  continue reading

596集单集

Artwork
icon分享
 
Manage episode 410130553 series 2166142
内容由Kristoffer, Fredrik, Tobias提供。所有播客内容(包括剧集、图形和播客描述)均由 Kristoffer, Fredrik, Tobias 或其播客平台合作伙伴直接上传和提供。如果您认为有人在未经您许可的情况下使用您的受版权保护的作品,您可以按照此处概述的流程进行操作https://zh.player.fm/legal

Fredrik snackar med Vilhelm von Ehrenheim om teknik som kan tänkas påverka det vi kallar AI framöver. Vilka tekniker är intressanta, och vad innebär de?

Vi diskuterar bland annat:

  • Vad innebär kontext för språkmodeller?
  • Multimodalitet - kunna resonera om text och bild samtidigt
  • Kunskapgrafer och RAG - tekniker för att försöka få svar som är “mer rätt” och har mindre risk att verka påhittade inom specifika sammanhang
  • Blir det fler stora generella modeller framöver, eller fler små och specialiserade?
  • Kunskapsgrafer och sökmotorer. Det pågår mycket utveckling kring att bättre knyta fakta och information från specifika områden - till exempel ditt företags situation just nu - till mer generellt tränade modeller, för att man inte ska behöva specialträna en modell för varje specifikt område, och inte heller behöva träna om varje gång omvärlden förändras
  • Agenter - sätt för modeller att interagera med som omgivning och utföra saker
  • Resonerande - vad menar man med det? Hur mäter man det? Och inte minst: hur tränar man egentligen modeller för att bli bättre på det?
  • Kommer det stora modellerna bli ännu större? Gör mer träningsdata mer nytta?
  • Och som avslutning: finns det några andra intressanta approacher som vi inte hör så mycket om för att det stora språkmodellerna just nu får all uppmärksamhet och investeringar?

Ett stort tack till Cloudnet som sponsrar vår VPS!

Har du kommentarer, frågor eller tips? Vi är @kodsnack, @thieta, @krig, och @bjoreman på Mastodon, har en sida på Facebook och epostas på info@kodsnack.se om du vill skriva längre. Vi läser allt som skickas.

Gillar du Kodsnack får du hemskt gärna recensera oss i iTunes! Du kan också stödja podden genom att ge oss en kaffe (eller två!) på Ko-fi, eller handla något i vår butik.

Länkar Titlar
  • AI lite mer konkret och framöver
  • Vad pågår mer konkret
  • Fler parametrar, mer av allt
  • Resonera om mer än bara text
  • Resonera om hur saker ser ut
  • Här är bra, relevant data
  • Slumpmässiga tokens från en distribution
  • Jag ger dig ett svar på måndag
  • Komplexa kunskapssystem
  • Någon som jobbar autonomt för ens egen räkning
  • Lära en robot öppna en dörr
  • Prova handtaget
  • Agentstrukturen
  • Väldigt mycket kontext
  continue reading

596集单集

所有剧集

×
 
Loading …

欢迎使用Player FM

Player FM正在网上搜索高质量的播客,以便您现在享受。它是最好的播客应用程序,适用于安卓、iPhone和网络。注册以跨设备同步订阅。

 

快速参考指南