martie 28, 2024

Obiectiv Jurnalul de Tulcea – Citeste ce vrei sa afli

Informații despre România. Selectați subiectele despre care doriți să aflați mai multe

OpenAI lansează Point-E, care este similar cu DALL-E, dar pentru modelare 3D

OpenAI lansează Point-E, care este similar cu DALL-E, dar pentru modelare 3D

OpenAI, startup-ul AI fondat de Elon Musk în spatele popularului generator text-to-image DALL-E, a anunțat marți A lansat cea mai recentă mașină de creare a imaginilor POINT-E, care poate produce direct nori de indicatori 3D din solicitările de text. În timp ce sistemele existente, cum ar fi DreamFusion de la Google, necesită de obicei câteva ore – și GPU-uri – pentru a-și genera imaginile, Point-E are nevoie doar de un GPU și un minut sau două.

Există un corgi în pălăria lui Moș Crăciun și

Modelarea 3D este utilizată într-o varietate de industrii și aplicații. Efecte CGI pentru succesele recente, jocuri video, VR, AR și NASA Misiuni de cartografiere a craterului lunarGoogle Proiecte de conservare a patrimoniuluiSi Meta viziunea metaversului Totul depinde de capacitățile tale de modelare 3D. Crearea de imagini 3D fotorealiste este totuși o resursă și un proces consumator de timp Munca NVIDIA de a automatiza crearea de obiecte și ale lui Epic Game Aplicația mobilă RealityCapturecare permite oricui cu un telefon iOS să scaneze obiecte din lumea reală ca imagini 3D.

Sistemele text-to-image, cum ar fi DALL-E 2 de la OpenAI și DeepAI de la Craiyon, Lensa de la Prisma Lab sau Stable Diffusion de la HuggingFace au câștigat popularitate, faimă și Rușine în ultimii ani. Text-to-3D este o ramură a acestei cercetări. Spre deosebire de sisteme similare, „Point-E profită de un set mare de perechi (text-imagine), ceea ce îi permite să urmeze solicitări diverse și complexe, în timp ce modelul Image-to-3D este antrenat pe un set de date mai mic de (imagine). , 3D) perechi”, a scris el. Echipa de cercetare OpenAI este condusă de Alex Nicol Punctul E: Un sistem pentru generarea de nori de puncte 3D din vectori complecși, a fost publicat săptămâna trecută. „Pentru a produce un obiect 3D dintr-un prompt text, eșantionăm mai întâi o imagine folosind modelul text-to-image, apoi eșantionăm un obiect 3D condiționat de imaginea cu care a fost testat eșantionul. Acești doi pași pot fi efectuati într-un număr de secunde și nu necesită proceduri de optimizare scumpe”.

READ  Urmărește întregul sezon al treilea al lui Tim Cook din „Ted Lasso” pe Apple Vision Pro, care este încă pe drumul cel bun pentru începutul anului 2024
punctul E

punctul E

Dacă doriți să introduceți un mesaj text, de exemplu, „Pisica mănâncă un burrito”, Point-E va crea mai întâi o redare 3D sintetică a pisicii care mănâncă un burrito. Acea imagine generată va fi apoi rulată printr-o serie de modele de difuzie pentru a crea un nor de puncte 3D RGB pentru imaginea brută – mai întâi producând un model de nor grosier de 1.024 de puncte, apoi un nor mai fin de 4.096 de puncte. „În practică, presupunem că imaginea conține informații relevante din text, iar norii de puncte nu sunt localizați în mod explicit pe text”, notează echipa de cercetare.

Fiecare dintre aceste modele de difuzie a fost instruit pe „milioane” de modele 3D, toate acestea fiind convertite într-un format standardizat. „Deși metoda noastră are rezultate mai proaste în această evaluare decât cea mai recentă tehnologie”, recunoaște echipa, „produce mostre într-o fracțiune de timp”. Dacă doriți să îl încercați singur, OpenAI a postat codul proiectului open source la github.