Stable Diffusion: Perbedaan antara revisi
Konten dihapus Konten ditambahkan
Penambahan kategori |
Mengganti Astronaut_Riding_a_Horse_(SD_3.5).webp dengan Astronaut_Riding_a_Horse_(SD3.5).webp (berkas dipindahkan oleh CommonsDelinker; alasan: File renamed: [[: |
||
(10 revisi perantara oleh 4 pengguna tidak ditampilkan) | |||
Baris 4:
| logo =
| logo caption =
| screenshot = Astronaut Riding a Horse (
| screenshot size = 250px
| caption = Sebuah gambar yang dihasilkan oleh Stable Diffusion berdasarkan kalimat "Sebuah foto astronot mengendarai seekor kuda"
Baris 10:
| developer = Stability AI
| released = 22 Agustus 2022
| latest release version =
| latest release date =
| repo = {{url|https://github.com/Stability-AI/stablediffusion}}
| programming language = [[Python (programming language)|Python]]<ref>{{cite web |author1 = Ryan O'Connor | title = How to Run Stable Diffusion Locally to Generate Images | url = https://www.assemblyai.com/blog/how-to-run-stable-diffusion-locally-to-generate-images/ | access-date = May 4, 2023 | date = August 23, 2022}}</ref>
Baris 26:
== Sejarah pengembangan ==
Pengembangan Stable Diffusion didanai dan didukung oleh perusahaan rintisan Stability AI.<ref name="forbes">{{Cite web|title=The AI Founder Taking Credit For Stable Diffusion's Success Has A History Of Exaggeration|url=https://www.forbes.com/sites/kenrickcai/2023/06/04/stable-diffusion-emad-mostaque-stability-ai-exaggeration/?sh=347a8fcb75c5|website=www.forbes.com|access-date=2023-06-20|url-status=live}}</ref><ref name="CNN-Getty2">{{Cite web|last=Korn|first=Jennifer|date=2023-01-17|title=Getty Images suing the makers of popular AI art tool for allegedly stealing photos|url=https://www.cnn.com/2023/01/17/tech/getty-images-stability-ai-lawsuit/index.html|website=CNN|language=en|access-date=2023-01-22}}</ref> Lisensi teknis untuk model tersebut dirilis oleh kelompok CompVis di Universitas Ludwig Maximilian München. Pengembangan dipimpin oleh Patrick Esser dari Runway dan Robin Rombach dari CompVis, yang termasuk di antara para peneliti yang sebelumnya menemukan arsitektur model difusi laten yang digunakan oleh Stable Diffusion. Stability AI juga memberikan apresiasi terhadap [[EleutherAI]] dan [[LAION]] (organisasi nirlaba [[Jerman]] yang mengumpulkan kumpulan data tempat pelatihan Stable Diffusion) sebagai pendukung proyek.
Pada Oktober 2022, Stability AI berhasil mengumpulkan US$101 juta dalam program pendanaan yang dipimpin oleh Lightspeed Venture Partners dan Coatue Management.<ref>{{Cite web|last=Wiggers|first=Kyle|date=17 October 2022|title=Stability AI, the startup behind Stable Diffusion, raises $101M|url=https://techcrunch.com/2022/10/17/stability-ai-the-startup-behind-stable-diffusion-raises-101m/|website=Techcrunch|language=en|access-date=2022-10-17}}</ref>
Baris 41:
=== Data latih ===
Stable Diffusion dilatih pada pasangan gambar dan teks yang diambil dari LAION-5B, sebuah kumpulan data yang tersedia untuk umum yang berasal dari data [[Common Crawl]] yang diambil dari web, di mana 5 miliar pasangan gambar-teks diklasifikasikan berdasarkan bahasa dan disaring ke dalam kumpulan data terpisah berdasarkan resolusi, kemungkinan terdapatnya [[Penandaairan digital|tanda air digital]], dan skor "estetika" yang diprediksi (misalnya kualitas visual secara subjektif). <ref name="Waxy">{{Cite web|last=Baio|first=Andy|date=2022-08-30|title=Exploring 12 Million of the 2.3 Billion Images Used to Train Stable Diffusion's Image Generator|url=https://waxy.org/2022/08/exploring-12-million-of-the-images-used-to-train-stable-diffusions-image-generator/|website=Waxy.org|language=en-US|access-date=2022-11-02}}</ref> Kumpulan data ini dibuat oleh [[LAION]], organisasi nirlaba Jerman yang menerima dana dari Stability AI.<ref name="Waxy" /><ref>{{Cite web|title=This artist is dominating AI-generated art. And he's not happy about it.|url=https://www.technologyreview.com/2022/09/16/1059598/this-artist-is-dominating-ai-generated-art-and-hes-not-happy-about-it/|website=MIT Technology Review|language=en|access-date=2022-11-02}}</ref> Model Stable Diffusion dilatih pada tiga [[himpunan bagian]] LAION-5B yaitu laion2B-en, laion-high-resolution, dan laion-aesthetics v2 5+.<ref name="Waxy" /> Analisis pihak ketiga terhadap data latih model menunjukan sekitar 47% dari ukuran sampel gambar berasal dari 100 domain web berbeda, dengan [[Pinterest]] mengambil 8,5% bagian, diikuti oleh situs web seperti [[WordPress]], [[Blogger (layanan)|Blogspot]], [[Flickr]], [[DeviantArt]], dan [[Wikimedia Commons]].<ref>{{Cite web|last=Ivanovs|first=Alex|date=2022-09-08|title=Stable Diffusion: Tutorials, Resources, and Tools|url=https://stackdiary.com/stable-diffusion-resources/|website=Stack Diary|language=en-US|access-date=2022-11-02}}</ref><ref name="Waxy" />
=== Prosedur pelatihan ===
Baris 51:
Stable Diffusion memiliki masalah dengan degradasi dan ketidakakuratan dalam skenario tertentu. Rilis awal model ini dilatih pada kumpulan data yang terdiri dari gambar beresolusi 512×512, yang berarti bahwa kualitas gambar yang dihasilkan menurun drastis saat spesifikasi pengguna menyimpang dari resolusi 512×512 yang "diharapkan";<ref name="diffusers">{{Cite web|title=Stable Diffusion with 🧨 Diffusers|url=https://huggingface.co/blog/stable_diffusion|website=huggingface.co|access-date=2022-10-31}}</ref> versi 2.0 dari model Stable Diffusion kemudian memperkenalkan kemampuan untuk menghasilkan gambar secara alami pada resolusi 768×768.<ref name="release2.0">{{Cite web|title=Stable Diffusion 2.0 Release|url=https://stability.ai/blog/stable-diffusion-v2-release|website=stability.ai|archive-url=https://web.archive.org/web/20221210062729/https://stability.ai/blog/stable-diffusion-v2-release|archive-date=December 10, 2022|url-status=live}}</ref> Tantangan lain adalah dalam menghasilkan anggota tubuh manusia karena kualitas data anggota tubuh yang buruk di data LAION (umumnya terlihat pada tangan).<ref>{{Cite web|title=LAION|url=https://laion.ai/|website=laion.ai|language=en|access-date=2022-10-31}}</ref> Keterbatasan pada Stable Diffusion mulai diatasi secara perlahan dengan model versi SDXL yang dirilis pada tanggal 26 Juli 2023, SDXL mendukung gambar beresolusi 1024x1024 dan menghasilkan anggota tubuh dan teks yang lebih sempurna.<ref>{{Cite web|title=Announcing SDXL 1.0|url=https://stability.ai/blog/stable-diffusion-sdxl-1-announcement|website=Stability AI|language=en-GB|access-date=2023-08-18}}</ref>
Keterjangkauan untuk pengembang individu juga bisa menjadi masalah. Untuk menyesuaikan model untuk kasus penggunaan baru yang tidak termasuk dalam kumpulan data, seperti membuat karakter [[anime]] ("waifu difusion"),<ref>{{Cite web|title=hakurei/waifu-diffusion · Hugging Face|url=https://huggingface.co/hakurei/waifu-diffusion|website=huggingface.co|access-date=2022-10-31}}</ref> data baru dan pelatihan lebih lanjut diperlukan. Adaptasi penyempurnaan terhadap Stable Diffusion yang dibuat melalui pelatihan ulang tambahan telah digunakan untuk berbagai kasus penggunaan yang berbeda, mulai dari pencitraan medis hingga [[Riffusion|musik yang dihasilkan dengan
Pencipta Stable Diffusion mengakui potensi [[bias algoritme|bias algoritma]], karena model tersebut dilatih pada gambar yang kebanyakan memiliki deskripsi bahasa Inggris.<ref name="stable-diffusion-model-card-1-4">{{Cite web|title=CompVis/stable-diffusion-v1-4 · Hugging Face|url=https://huggingface.co/CompVis/stable-diffusion-v1-4|website=huggingface.co|access-date=2022-11-02}}</ref> Akibatnya, gambar yang dihasilkan memperkuat bias sosial yang berasal dari perspektif budaya Barat, karena pembuatnya model tersebut kekurangan data dari komunitas dan budaya lain.<ref name="stable-diffusion-model-card-1-4" />
=== Penyempurnaan oleh pengguna akhir ===
Baris 59:
* "Embedding" dapat dilatih dari kumpulan gambar yang disediakan oleh pengguna, dan memungkinkan model menghasilkan gambar yang mirip secara visual setiap kali nama sematan digunakan dalam perintah pembuatan.<ref>{{Cite web|last=Dave James|date=October 28, 2022|title=I thrashed the RTX 4090 for 8 hours straight training Stable Diffusion to paint like my uncle Hermann|url=https://www.pcgamer.com/nvidia-rtx-4090-stable-diffusion-training-aharon-kahana/|website=[[PC Gamer]]|archive-url=https://web.archive.org/web/20221109154310/https://www.pcgamer.com/nvidia-rtx-4090-stable-diffusion-training-aharon-kahana/|archive-date=November 9, 2022|url-status=live}}</ref> Penyematan didasarkan pada konsep "inversi tekstual" yang dikembangkan oleh para peneliti dari [[Universitas Tel Aviv]] pada tahun 2022 dengan dukungan dari [[NVIDIA|Nvidia]], di mana representasi vektor untuk token tertentu yang digunakan oleh pembuat enkode teks model ditautkan ke kata-kata semu baru. Penyematan dapat digunakan untuk mengurangi bias dalam model aslinya, atau meniru gaya visual tertentu.
* "Hypernetwork" adalah jaringan saraf pra-pelatihan kecil yang diterapkan ke berbagai titik dalam jaringan saraf yang lebih besar, dan mengacu pada teknik yang dibuat oleh pengembang [[NovelAI]] Kurumuz pada tahun 2021, awalnya ditujukan untuk [[Transformer (model pembelajaran mesin)|model transformator]] pembuatan teks
* [[DreamBooth]] adalah model generasi pembelajaran mendalam yang dikembangkan oleh para peneliti dari [[Google|Google Research]] dan [[Universitas Boston]] pada tahun 2022 yang dapat menyempurnakan model untuk menghasilkan keluaran yang dipersonalisasi dan presisi yang menggambarkan subjek tertentu, mengikuti pelatihan melalui serangkaian gambar yang menggambarkan subjek tersebut.<ref>{{Cite web|last=Yuki Yamashita|date=September 1, 2022|title=愛犬の合成画像を生成できるAI 文章で指示するだけでコスプレ 米Googleが開発|url=https://www.itmedia.co.jp/news/articles/2209/01/news041.html|website=ITmedia Inc.|language=ja|archive-url=https://web.archive.org/web/20220831232021/https://www.itmedia.co.jp/news/articles/2209/01/news041.html|archive-date=August 31, 2022|url-status=live}}</ref>
Baris 88:
=== Modifikasi gambar ===
{{Multiple image
Stable Diffusion juga menyertakan fitur lain, "img2img", yang menggunakan perintah teks, hubungan ke gambar yang ada, dan nilai kekuatan antara 0,0 dan 1,0. Fitur ini mengeluarkan gambar baru berdasarkan gambar yang sudah ada yang juga menampilkan elemen yang disediakan dalam perintah teks. Nilai kekuatan menunjukkan jumlah noise yang ditambahkan ke gambar keluaran. Nilai kekuatan yang lebih tinggi menghasilkan lebih banyak variasi dalam gambar tetapi dapat menghasilkan gambar yang tidak konsisten dengan perintah yang diberikan.<ref name="stable-diffusion-github">{{Cite web|date=17 September 2022|title=Stable Diffusion Repository on GitHub|url=https://github.com/CompVis/stable-diffusion|publisher=CompVis - Machine Vision and Learning Research Group, LMU Munich|access-date=17 September 2022}}</ref>▼
| direction = vertical
| align = right
| total_width = 200
| image1 = NightCitySphere (SD1.5).jpg
| image2 = NightCitySphere (SDXL).jpg
| footer = Sebuah demonstrasi terhadap penggunaan fitur img2img terhadap gambar
*'''Atas''': Gambar orisinil yang dibuat di Stable Diffusion 1.5
*'''Bawah''': Gambar hasil modifikasi yang dibuat di Stable Diffusion XL
}}
▲Stable Diffusion juga menyertakan fitur lain, "img2img", yang menggunakan perintah teks, hubungan ke gambar yang ada, dan nilai kekuatan antara 0,0 dan 1,0. Fitur ini mengeluarkan gambar baru berdasarkan gambar yang sudah ada yang juga menampilkan elemen yang disediakan dalam perintah teks. Nilai kekuatan menunjukkan jumlah noise yang ditambahkan ke gambar keluaran. Nilai kekuatan yang lebih tinggi menghasilkan lebih banyak variasi dalam gambar
Kemampuan img2img untuk menambahkan noise ke gambar asli membuatnya berpotensi berguna untuk [[anonimisasi data]] dan [[augmentasi data]], di mana karakteristik visual data gambar diubah dan dianonimkan.<ref name=":1">{{Cite arXiv|last=Luzi|first=Lorenzo|date=2022-10-21|title=Boomerang: Local sampling on image manifolds using diffusion models}}</ref> Proses yang sama mungkin juga berguna untuk peningkatan resolusi gambar, di mana resolusi gambar ditingkatkan, dengan lebih banyak detil berpotensi ditambahkan ke gambar.<ref name=":1" /> Selain itu, Stable Diffusion telah diujicobakan sebagai alat untuk kompresi gambar. Dibandingkan dengan format [[JPEG]] dan [[WebP]], metode terbaru yang digunakan untuk kompresi gambar dalam Stable Diffusion memiliki keterbatasan dalam mempertahankan teks dan wajah kecil.<ref>{{Cite web|last=Bühlmann|first=Matthias|date=2022-09-28|title=Stable Diffusion Based Image Compression|url=https://pub.towardsai.net/stable-diffusion-based-image-compresssion-6f1f0a399202|website=Medium|language=en|access-date=2022-11-02}}</ref>▼
▲Kemampuan img2img untuk menambahkan noise ke gambar asli membuatnya berpotensi berguna untuk [[anonimisasi data]] dan [[augmentasi data]], di mana karakteristik visual data gambar diubah dan dianonimkan.<ref name=":1">{{Cite arXiv|last=Luzi|first=Lorenzo|date=2022-10-21|title=Boomerang: Local sampling on image manifolds using diffusion models}}</ref> Proses yang sama mungkin juga berguna untuk peningkatan resolusi gambar, di mana resolusi gambar ditingkatkan, dengan lebih banyak detil
Kasus penggunaan tambahan untuk modifikasi gambar melalui img2img ditawarkan oleh banyak implementasi front-end model Stable Diffusion. Inpainting melibatkan modifikasi selektif sebagian dari gambar yang ada dengan lapisan topeng yang disediakan pengguna, yang mengisi ruang bertopeng dengan konten yang baru dibuat berdasarkan kalimat yang diberikan.<ref name="webui_showcase">{{cite web|date=10 November 2022|title=Stable Diffusion web UI|url=https://github.com/AUTOMATIC1111/stable-diffusion-webui-feature-showcase|website=GitHub}}</ref> Model khusus yang untuk kasus penggunaan inpainting dibuat oleh Stability AI bersamaan dengan peluncuran Stable Diffusion 2.0.<ref name="release2.0">{{Cite web|title=Stable Diffusion 2.0 Release|url=https://stability.ai/blog/stable-diffusion-v2-release|website=stability.ai|archive-url=https://web.archive.org/web/20221210062729/https://stability.ai/blog/stable-diffusion-v2-release|archive-date=December 10, 2022|url-status=live}}</ref> Sebaliknya, outpainting memperluas gambar melampaui dimensi aslinya, mengisi ruang kosong sebelumnya dengan konten yang dihasilkan berdasarkan kalimat yang disediakan.<ref name="webui_showcase" />
Baris 99 ⟶ 110:
ControlNet<ref name="controlnet-paper">{{Cite arXiv|title=Adding Conditional Control to Text-to-Image Diffusion Models|date=10 February 2023}}</ref> adalah sebuah arsitektur jaringan saraf yang dirancang untuk mengelola model difusi dengan memasukkan kondisi tambahan. Ini menduplikasi bobot blok jaringan saraf menjadi salinan "terkunci" dan salinan "dapat dilatih". Salinan "dapat dilatih" mempelajari kondisi yang diinginkan, sedangkan salinan "terkunci" mempertahankan model aslinya. Konvolusi nol" adalah konvolusi 1×1 dengan bobot dan bias diinisialisasi ke nol. Sebelum pelatihan, semua konvolusi nol menghasilkan output nol, mencegah distorsi yang disebabkan oleh ControlNet. Metode ini memungkinkan pelatihan pada perangkat berskala kecil atau bahkan perangkat pribadi.
=== LoRA (Low-Rank Adaptation) ===
== Rilis ==▼
LoRA (Low-Rank Adaptation) merupakan sebuah teknik yang digunakan dalam pelatihan model pembelajaran mesin, terutama model bahasa besar (Large Language Models/LLMs), untuk mengurangi kompleksitas komputasi dan kebutuhan penyimpanan tanpa mengorbankan performa. LoRA memanfaatkan dekomposisi matriks dengan pangkat rendah untuk memperbarui hanya sebagian dari parameter model yang besar, sehingga mempercepat proses fine-tuning dan membuatnya lebih efisien dalam hal penggunaan sumber daya.<ref>{{Cite journal|last=Yuanzhi Li|first=Edward Hu|date=2021-10-16|title=LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS|url=https://arxiv.org/pdf/2106.09685|journal=LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS|volume=Version 2|pages=26}}</ref>
Rilis model meliputi:▼
Dalam model deep learning konvensional, proses fine-tuning sering kali membutuhkan pembaruan seluruh parameter model, yang memerlukan sumber daya komputasi besar dan memori yang tinggi. LoRA mengatasi hal ini dengan memproyeksikan perubahan parameter model ke dalam ruang pangkat rendah, di mana perubahan kecil dan terarah dapat diwakili secara efisien dengan parameter yang lebih sedikit.
V1.4, Agustus 2022<ref>{{Cite web|title=CompVis/stable-diffusion-v1-4 · Hugging Face|url=https://huggingface.co/CompVis/stable-diffusion-v1-4|website=huggingface.co|access-date=2023-08-17}}</ref> ▼
Dalam praktiknya, LoRA menguraikan matriks besar dari parameter model menjadi dua matriks dengan pangkat lebih rendah, sehingga memperkecil dimensi parameter yang diperbarui. Dengan demikian, teknik ini mempertahankan performa model yang baik pada berbagai tugas, sekaligus mengurangi overhead komputasi dan memori yang diperlukan selama proses adaptasi atau fine-tuning.
V1.5, Oktober 2022<ref>{{Cite web|title=runwayml/stable-diffusion-v1-5 · Hugging Face|url=https://huggingface.co/runwayml/stable-diffusion-v1-5|website=huggingface.co|access-date=2023-08-17}}</ref> ▼
LoRA telah menjadi populer dalam aplikasi seperti penyesuaian model bahasa besar pada domain spesifik, di mana pengurangan sumber daya yang dibutuhkan sangat penting untuk penerapan yang lebih luas dan efisien.
V2.0, November 2022<ref>{{Cite web|title=stabilityai/stable-diffusion-2 · Hugging Face|url=https://huggingface.co/stabilityai/stable-diffusion-2|website=huggingface.co|access-date=2023-08-17}}</ref> ▼
▲== Rilis ==
V2.1, Desember 2022<ref>{{Cite web|title=stabilityai/stable-diffusion-2-1 · Hugging Face|url=https://huggingface.co/stabilityai/stable-diffusion-2-1|website=huggingface.co|access-date=2023-08-17}}</ref> ▼
▲Rilis model meliputi:
▲* V1.
▲* V2.0, November 2022<ref>{{Cite web|title=stabilityai/stable-diffusion-2 · Hugging Face|url=https://huggingface.co/stabilityai/stable-diffusion-2|website=huggingface.co|access-date=2023-08-17}}</ref>
▲
▲
== Penggunaan dan kontroversi ==
Baris 117 ⟶ 133:
Karena gaya seni dan [[Komposisi (seni rupa)|komposisi]] tidak memiliki hak cipta, seringkali ditafsirkan bahwa pengguna Stable Diffusion yang menghasilkan gambar karya seni tidak dapat dianggap melanggar hak cipta terhadap karya visual yang serupa.<ref name="automaton" /> Namun, individu yang digambarkan dalam gambar yang dihasilkan dapat dilindungi oleh hak kepribadian jika gambar mereka digunakan, dan kekayaan intelektual seperti logo merek yang dapat dikenali masih dilindungi oleh hak merek dagang.<ref name="automaton">{{Cite web|date=August 24, 2022|title=高性能画像生成AI「Stable Diffusion」無料リリース。「kawaii」までも理解し創造する画像生成AI|url=https://automaton-media.com/articles/newsjp/20220824-216074/|website=Automaton Media|language=ja}}</ref> Namun, sejumlah seniman visual menyatakan kekhawatiran bahwa penggunaan luas perangkat lunak sintesis gambar seperti Stable Diffusion dapat berpotensi menyebabkan seniman manusia, bersama dengan fotografer, model, sinematografer, dan aktor, secara bertahap kehilangan viabilitas komersial terhadap pesaing berbasis [[kecerdasan buatan]].
Stable Diffusion lebih permisif dalam jenis konten yang mungkin dihasilkan pengguna, seperti gambar kekerasan atau eksplisit secara seksual, dibandingkan dengan produk kecerdasan buatan generatif
== Gugatan ==
Baris 125 ⟶ 141:
== Lisensi ==
Tidak seperti model lainnya seperti DALL-E, Stable Diffusion membuat kode sumbernya tersedia<ref name="stability">{{Cite web|title=Stable Diffusion Public Release|url=https://stability.ai/blog/stable-diffusion-public-release|website=Stability.Ai|archive-url=https://web.archive.org/web/20220830210535/https://stability.ai/blog/stable-diffusion-public-release|archive-date=2022-08-30|access-date=2022-08-31|url-status=live}}</ref><ref name="stable-diffusion-github">{{Cite web|date=17 September 2022|title=Stable Diffusion Repository on GitHub|url=https://github.com/CompVis/stable-diffusion|publisher=CompVis - Machine Vision and Learning Research Group, LMU Munich|access-date=17 September 2022}}</ref> beserta dengan model (bobot pralatih). Lisensi yang berlaku adalah Creative ML OpenRAIL-M, sebuah lisensi kecerdasan buatan yang memiliki misi "bertanggung jawab sampai ke model".<ref>{{Cite web|date=18 August 2022|title=From RAIL to Open RAIL: Topologies of RAIL Licenses|url=https://www.licenses.ai/blog/2022/8/18/naming-convention-of-responsible-ai-licenses|website=Responsible AI Licenses (RAIL)|language=en-US|access-date=2023-02-20}}</ref> Lisensi ini melarang sejumlah kasus penggunaan, seperti tindakan kriminal, [[fitnah]], [[pelecehan]], [[doksing]], "mengeksploitasi ... anak di bawah umur", memberikan nasihat medis, membuat kewajiban hukum secara otomatis, memproduksi bukti hukum, dan "mendiskriminasi atau melakukan tindakan kekerasan terhadap individu dan kelompok berdasarkan ... perilaku sosial atau ... karakteristik pribadi atau kepribadian ... [atau] kategori dan karakteristik yang dilindungi hukum".<ref name="washingtonpost">{{Cite news|date=2022-08-30|title=Ready or not, mass video deepfakes are coming|url=https://www.washingtonpost.com/technology/2022/08/30/deep-fake-video-on-agt/|work=The Washington Post|archive-url=https://web.archive.org/web/20220831115010/https://www.washingtonpost.com/technology/2022/08/30/deep-fake-video-on-agt/|archive-date=2022-08-31|access-date=2022-08-31|url-status=live}}</ref><ref>{{Cite web|title=License - a Hugging Face Space by CompVis|url=https://huggingface.co/spaces/CompVis/stable-diffusion-license|website=huggingface.co|archive-url=https://web.archive.org/web/20220904215616/https://huggingface.co/spaces/CompVis/stable-diffusion-license|archive-date=2022-09-04|access-date=2022-09-05|url-status=live}}</ref> Pengguna memiliki hak cipta terhadap gambar keluaran dan diperkenankan menggunakannya secara
== Lihat pula ==
Baris 133 ⟶ 149:
== Referensi ==
<references
== Pranala luar ==
|