Nvidia esitteli uudet Blackwell -näytönohjaimet
Lisäksi: Lex Fridman haastatteli toistamiseen Sam Altmania
Huomenta! ☕
Transistori on arkiaamuisin ilmestyvä teknologiauutisiin ja internet-kulttuuriin keskittyvä uutiskirje, jota kirjoittaa data-ammattilaisena toimiva Robert Siipola harrastuksenaan. Klikkaa Transistori tilaukseen ja pysy kartalla teknologiamaailman tuoreimmista käänteistä!
Uutiset 🗞️
Nvidia esitteli uudet Blackwell -näytönohjaimet
Nvidia esitteli eilen yhtiön GTC -konferenssissa sen seuraavan sukupolven Blackwell -näytönohjainmalliston ja malliston lippulaivaprosessori B200:n, jossa on 20 petaflopin edestä laskentatehoa neljä bittisillä liukuluvuilla. Nvidia lupailee myös, että B200:lla rakennetut järjestelmät ovat 30 kertaa tehokkaampia kielimallien kommunikointitehtävissä edelliseen sukupolveen verrattuna ja ovat myös kustannus- ja energiatehokkaampia aikaisempaan Hopper -mallistoon verrattuna. The Vergeltä:
Nvidia says the new B200 GPU offers up to 20 petaflops of FP4 horsepower from its 208 billion transistors. Also, it says, a GB200 that combines two of those GPUs with a single Grace CPU can offer 30 times the performance for LLM inference workloads while also potentially being substantially more efficient. It “reduces cost and energy consumption by up to 25x” over an H100, says Nvidia.
Training a 1.8 trillion parameter model would have previously taken 8,000 Hopper GPUs and 15 megawatts of power, Nvidia claims. Today, Nvidia’s CEO says 2,000 Blackwell GPUs can do it while consuming just four megawatts.
On a GPT-3 LLM benchmark with 175 billion parameters, Nvidia says the GB200 has a somewhat more modest seven times the performance of an H100, and Nvidia says it offers four times the training speed.
Yhtiön toimitusjohtaja Jensen Huang spekuloidaan myös samalla varmistaneen GPT-4:n parametrimäärän, sillä Huangin mukaan 2000:lla Blackwell -näytönohjaimella on mahdollista kouluttaa 1,8 biljoonaa parametria omaava kielimalli vain 90 päivässä. Koko Jensenin avajaispuheen voi katsoa alla:
Stability AI julkaisi 3D -videomallin
Tekoäly-yhtiö Stability AI julkisti eilen uuden, yksittäisistä kuvista 3D -videoita (ja malleja) luovan Stable Video 3D (SV3D) -generatiivisen mallin. Mallia voi käyttää kaupallisiin tarkoituksiin olemalla Stability AI:n -tilauspalvelun jäsen, ja tutkimustarkoituksia varten yhtiö julkaisee mallin HuggingFace -palvelussa ilmaiseksi.
Today we are releasing Stable Video 3D (SV3D), a generative model based on Stable Video Diffusion, advancing the field of 3D technology and delivering greatly improved quality and view-consistency.
This release features two variants: SV3D_u and SV3D_p. SV3D_u generates orbital videos based on single image inputs without camera conditioning. SV3D_p extends the capability by accommodating both single images and orbital views, allowing for the creation of 3D video along specified camera paths.
Stable Video 3D can be used now for commercial purposes with a Stability AI Membership. For non-commercial use, you can download the model weights on Hugging Face and view our research paper here.
YouTube vaatii tubettajia luokittelemaan GenAI -videot
Mainitaan vielä, että YouTube vaatii eilisestä lähtien sisällöntuottajia merkitsemään jos näiden videoissa olevaa “realistiselta vaikuttava sisältö”, kuten ihmisten kasvot, paikat tai tapahtumat ovat generatiivisen tekoälyn luomaa tai muokkaamaa.
Merkinnän on tarkoitus luoda läpinäkyvyyttä videoiden katsojille. Käytännössä esimerkiksi videot joissa on muunneltu ihmisen ääntä tekoälyn avulla, täytyy nyt luokitella tekoälyn muokkaamiksi. YouTubelta:
That’s why today we’re introducing a new tool in Creator Studio requiring creators to disclose to viewers when realistic content – content a viewer could easily mistake for a real person, place, or event – is made with altered or synthetic media, including generative AI.
…
The new label is meant to strengthen transparency with viewers and build trust between creators and their audience. Some examples of content that require disclosure include:
Using the likeness of a realistic person: Digitally altering content to replace the face of one individual with another's or synthetically generating a person’s voice to narrate a video.
Altering footage of real events or places: Such as making it appear as if a real building caught fire, or altering a real cityscape to make it appear different than in reality.
Generating realistic scenes: Showing a realistic depiction of fictional major events, like a tornado moving toward a real town.
Suosittelut 🕵️
Lex Fridman haastatteli toistamiseen Sam Altmania
OpenAI:n toimitusjohtaja Sam Altman vieraili toistamiseen Lex Fridmanin podcastissa. Eilen julkaistussa jaksossa Altman ja Fridman keskustelevat mm. OpenAI:n viime syksyn hallituskriisistä ja Altmanin suhteesta Elon Muskiin.
Valitettavasti mitään merkittäviä paljastuksia esimerkiksi tulevasta GPT-5:stä ei keskustelussa tullut esille, mutta Altaman lupaili yhtiön julkaisevan monta asiaa vuoden 2024 aikana.
Nopeet 🚀
Steam saa paremmat perhetili -asetukset.
(€) Kehittäjät ovat pettyneitä OpenAI:n GPT -storeen.
Nvidia julkaisi mainosvideon 3D -alusta Omniversestaan.
Tämä kuva Tim
ApplestaCookista ja Sundar Pichaista ravintolassa trendasi Twitterissä.(€) Valintatyö Disneyn seuraavan toimitusjohtajan nimittämiseksi on alkanut.
Seuraava live-action Star Wars -sarja saapuu Disney+:aan kesäkuussa.
Unity julkaisi raportin pelialan tilasta ja trendeistä.