Didžiulis OpenAI generuojamųjų AI įrankių asortimentas toliau auga.
Dirbtinio intelekto (AI) tyrimų ir diegimo įmonės, tokios kaip OpenAI, nuolat išleidžia funkcijas žmonijos labui. Be ChatGPT, DALL-E, Point-E ir kitų sėkmingų įrankių, OpenAI išleido naują novatorišką modelį Shap-E.
Taigi, kas yra „OpenAI Shap-E“ ir kuo jis gali būti naudingas?
Kas yra „OpenAI Shap-E“?
2023 m. gegužės mėn. Alex Nichol ir Heewon Jun, OpenAI tyrinėtojai ir bendradarbiai, išleido popierius, skelbiantis Shap-E, naujausia įmonės naujovė. „Shap-E“ yra naujas įrankis, parengtas naudojant didžiulį suporuotų 3D vaizdų ir teksto duomenų rinkinį, kuris gali generuoti 3D modelius iš teksto ar vaizdų. Jis panašus į DALL-E, kuri gali sukurti 2D vaizdus iš teksto, bet Shap-E gamina 3D išteklius.
Shap-E yra apmokytas sąlyginio sklaidos modelio ir 3D turto žemėlapių sudarymo. 3D išteklių atvaizdavimas reiškia, kad „Shap-E“ išmoksta susieti tekstą ar vaizdus su atitinkamais 3D modeliais iš didelio esamų 3D objektų duomenų rinkinio. Sąlyginis difuzijos modelis yra generacinis modelis, kuris pradedamas nuo triukšmingos tikslinės išvesties versijos ir palaipsniui ją tobulina pašalindamas triukšmą ir pridėdamas detalių.
Sujungus šiuos du komponentus, „Shap-E“ gali sukurti tikroviškus ir įvairius 3D modelius, atitinkančius nurodytą teksto ar vaizdo įvestį ir kuriuos galima peržiūrėti skirtingais kampais ir apšvietimo sąlygomis.
Kaip galite naudoti OpenAI Shap-E
„Shap-E“ nebuvo paskelbta viešai, kaip ir kiti „OpenAI“ įrankiai, tačiau jo modelio svorį, išvados kodą ir pavyzdžius galima atsisiųsti Shap-E GitHub puslapį.
Galite atsisiųsti Shap-E kodą nemokamai ir įdiekite jį naudodami Python pip komandą kompiuteryje. Jums taip pat reikia NVIDIA GPU ir didelio našumo procesoriaus, nes „Shap-E“ reikalauja daug išteklių.
Įdiegę atidarykite 3D vaizdus, kuriuos sugeneruojate naudodami „Microsoft Paint 3D“. Taip pat galite konvertuoti vaizdus į STL failus jei norite juos spausdinti naudodami 3D spausdintuvus.
Taip pat galite pranešti apie problemas ir rasti kitų jau iškeltų problemų sprendimus „Shap-E GitHub“ puslapyje.
Ką galite padaryti su OpenAI Shap-E
„Shap-E“ leidžia apibūdinti sudėtingas idėjas naudojant vizualinį idėjų vaizdavimą. Galimos šios technologijos pritaikymo galimybės yra neribotos, ypač dėl to, kad vaizdiniai elementai paprastai turi daug didesnį poveikį nei tekstai.
Būdamas architektas, galite naudoti „Shap-E“, kad sukurtumėte 3D pastatų ir konstrukcijų modelius pagal rašytinius aprašymus. Naudodami paprastus sakinius galite nurodyti konstrukcijų matmenis, medžiagas, spalvas ir stilius. Pavyzdžiui, galite jį paraginti naudodami: „Padarykite dangoraižį su 60 aukštų ir stiklinėmis baliustradomis“ ir eksportuokite rezultatą (-us) į kitą programinę įrangą, kad galėtumėte toliau redaguoti, jei jums patinka gauti rezultatai.
Žaidėjai ir animacijos menininkai gali pagerinti virtualią aplinką ir vizualinę patirtį kurdami išsamius 3D objektus ir personažus. Inžinerijos srityje galite aprašyti mašinų ir įrangos komponentus, specifikacijas ir funkcijas bei gauti rezultatus 3D modeliuose prieš kurdami fizinius prototipus.
Be to, net tokiose srityse kaip švietimas, „Shap-E“ gali padėti pedagogams perteikti sudėtingas ir abstrakčias idėjas savo mokiniams apie tokius dalykus kaip biologija, geometrija ir fizika.
Nors tai vis dar nebaigta, Shap-E yra žingsniu priekyje OpenAI TAŠKAS-E, kuri pagal tekstinius nurodymus sukuria 3D taškų debesis. Taškinių debesų išraiškingumas ir skiriamoji geba yra riboti, todėl dažnai susidaro neryškios arba neišsamios formos.
Kurkite 3D modelius naudodami OpenAI Shap-E
„Shap-E“ yra įspūdingas AI galios kuriant 3D turinį iš natūralios kalbos ar vaizdų demonstravimas. Su juo galite kurti 3D objektus kompiuteriniams žaidimams, interaktyviems VR potyriams, prototipams ir kitiems tikslams. Nors nėra jokių garantijų dėl išvesties kokybės, AI modelis suteikia jums greitą ir efektyvų būdą sukurti bet kokio 3D modelį.
Be to, šis AI modelis yra svarbus indėlis į gilaus mokymosi erdvę ir greičiausiai paskatins ateities pažangias naujoves ir kūrinius.