<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://onnocenter.or.id/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Onnowpurbo</id>
	<title>OnnoWiki - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://onnocenter.or.id/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Onnowpurbo"/>
	<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php/Special:Contributions/Onnowpurbo"/>
	<updated>2026-05-03T10:59:35Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.35.4</generator>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ZOOM:_instalasi&amp;diff=73544</id>
		<title>ZOOM: instalasi</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ZOOM:_instalasi&amp;diff=73544"/>
		<updated>2026-04-30T01:28:23Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Instalasi Pendukung */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Instalasi Pendukung==&lt;br /&gt;
&lt;br /&gt;
Ubuntu 22.04&lt;br /&gt;
&lt;br /&gt;
 sudo apt -y install gdebi libxcb-xtest0 libgl1-mesa-glx \&lt;br /&gt;
 libegl1-mesa libxcb-xinerama0 libxcb-cursor0&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ubuntu 24.04&lt;br /&gt;
&lt;br /&gt;
 sudo apt -y install gdebi libxcb-xtest0 libglx-mesa0 \&lt;br /&gt;
 libxcb-xinerama0 libxcb-cursor0&lt;br /&gt;
&lt;br /&gt;
Ubuntu 26.04&lt;br /&gt;
&lt;br /&gt;
 sudo apt -y install gdebi libxcb-xtest0 libglx-mesa0 \&lt;br /&gt;
 libxcb-xinerama0 libxcb-cursor0 ibus&lt;br /&gt;
&lt;br /&gt;
==Download==&lt;br /&gt;
&lt;br /&gt;
 sudo su&lt;br /&gt;
 cd /usr/local/src/&lt;br /&gt;
 wget https://zoom.us/client/latest/zoom_amd64.deb&lt;br /&gt;
&lt;br /&gt;
==Instalasi==&lt;br /&gt;
&lt;br /&gt;
 sudo su&lt;br /&gt;
 &lt;br /&gt;
 cd /usr/local/src&lt;br /&gt;
 dpkg -i zoom_amd64.deb&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ZOOM:_instalasi&amp;diff=73543</id>
		<title>ZOOM: instalasi</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ZOOM:_instalasi&amp;diff=73543"/>
		<updated>2026-04-30T00:54:21Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Instalasi Pendukung==&lt;br /&gt;
&lt;br /&gt;
Ubuntu 22.04&lt;br /&gt;
&lt;br /&gt;
 sudo apt -y install gdebi libxcb-xtest0 libgl1-mesa-glx \&lt;br /&gt;
 libegl1-mesa libxcb-xinerama0 libxcb-cursor0&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ubuntu 24.04&lt;br /&gt;
&lt;br /&gt;
 sudo apt -y install gdebi libxcb-xtest0 libglx-mesa0 \&lt;br /&gt;
 libxcb-xinerama0 libxcb-cursor0&lt;br /&gt;
&lt;br /&gt;
Ubuntu 26.04&lt;br /&gt;
&lt;br /&gt;
 sudo apt -y install gdebi libxcb-xtest0 libglx-mesa0 \&lt;br /&gt;
 libxcb-xinerama0 libxcb-cursor0&lt;br /&gt;
&lt;br /&gt;
==Download==&lt;br /&gt;
&lt;br /&gt;
 sudo su&lt;br /&gt;
 cd /usr/local/src/&lt;br /&gt;
 wget https://zoom.us/client/latest/zoom_amd64.deb&lt;br /&gt;
&lt;br /&gt;
==Instalasi==&lt;br /&gt;
&lt;br /&gt;
 sudo su&lt;br /&gt;
 &lt;br /&gt;
 cd /usr/local/src&lt;br /&gt;
 dpkg -i zoom_amd64.deb&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Ubuntu:_Install_26.04_di_laptop_HP_nvme&amp;diff=73542</id>
		<title>Ubuntu: Install 26.04 di laptop HP nvme</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Ubuntu:_Install_26.04_di_laptop_HP_nvme&amp;diff=73542"/>
		<updated>2026-04-29T22:18:47Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* 6. Format NVMe via Terminal dari Live USB */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Format Laptop HP NVMe dan Install Ubuntu 26.04 =&lt;br /&gt;
&lt;br /&gt;
Berikut cara '''format laptop HP dengan NVMe dan install Ubuntu 26.04'''.&lt;br /&gt;
&lt;br /&gt;
== 1. Siapkan USB Installer ==&lt;br /&gt;
&lt;br /&gt;
Yang dibutuhkan:&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Kebutuhan&lt;br /&gt;
! Keterangan&lt;br /&gt;
|-&lt;br /&gt;
| Flashdisk&lt;br /&gt;
| Minimal '''8–12 GB'''&lt;br /&gt;
|-&lt;br /&gt;
| File ISO&lt;br /&gt;
| Ubuntu Desktop 26.04 LTS&lt;br /&gt;
|-&lt;br /&gt;
| Backup&lt;br /&gt;
| '''Wajib''', karena format akan menghapus data&lt;br /&gt;
|-&lt;br /&gt;
| Laptop HP&lt;br /&gt;
| Charger terpasang&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Download ISO dari halaman resmi Ubuntu.&lt;br /&gt;
&lt;br /&gt;
Untuk membuat USB bootable, gunakan:&lt;br /&gt;
&lt;br /&gt;
* ''Startup Disk Creator'' di Ubuntu&lt;br /&gt;
* Rufus di Windows&lt;br /&gt;
* balenaEtcher di Windows/Linux/macOS&lt;br /&gt;
&lt;br /&gt;
== 2. Masuk Boot Menu Laptop HP ==&lt;br /&gt;
&lt;br /&gt;
Pada laptop HP biasanya:&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Fungsi&lt;br /&gt;
! Tombol&lt;br /&gt;
|-&lt;br /&gt;
| '''Boot Menu'''&lt;br /&gt;
| &amp;lt;code&amp;gt;Esc&amp;lt;/code&amp;gt;, lalu &amp;lt;code&amp;gt;F9&amp;lt;/code&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| BIOS/UEFI Setup&lt;br /&gt;
| &amp;lt;code&amp;gt;Esc&amp;lt;/code&amp;gt;, lalu &amp;lt;code&amp;gt;F10&amp;lt;/code&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| System Information&lt;br /&gt;
| &amp;lt;code&amp;gt;Esc&amp;lt;/code&amp;gt;, lalu &amp;lt;code&amp;gt;F1&amp;lt;/code&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Langkah:&lt;br /&gt;
&lt;br /&gt;
# Colok USB installer Ubuntu.&lt;br /&gt;
# Nyalakan laptop.&lt;br /&gt;
# Tekan berulang &amp;lt;code&amp;gt;Esc&amp;lt;/code&amp;gt;.&lt;br /&gt;
# Pilih &amp;lt;code&amp;gt;F9 Boot Device Options&amp;lt;/code&amp;gt;.&lt;br /&gt;
# Pilih USB Ubuntu.&lt;br /&gt;
# Boot ke menu installer Ubuntu.&lt;br /&gt;
&lt;br /&gt;
== 3. Pilih Mode Install ==&lt;br /&gt;
&lt;br /&gt;
Setelah masuk Ubuntu Installer:&lt;br /&gt;
&lt;br /&gt;
# Pilih '''Try or Install Ubuntu'''.&lt;br /&gt;
# Pilih bahasa.&lt;br /&gt;
# Pilih keyboard.&lt;br /&gt;
# Pilih koneksi internet jika perlu.&lt;br /&gt;
# Pada bagian instalasi, pilih salah satu:&lt;br /&gt;
&lt;br /&gt;
* '''Erase disk and install Ubuntu''' jika seluruh NVMe akan dihapus.&lt;br /&gt;
* '''Manual installation''' atau '''Something else''' jika ingin mengatur partisi sendiri.&lt;br /&gt;
&lt;br /&gt;
'''Peringatan penting:''' pilihan '''Erase disk and install Ubuntu''' akan menghapus seluruh isi disk yang dipilih, termasuk Windows, partisi recovery, dan semua data.&lt;br /&gt;
&lt;br /&gt;
== 4. Cara Aman: Format Otomatis oleh Installer ==&lt;br /&gt;
&lt;br /&gt;
Untuk kebanyakan pengguna, pilih:&lt;br /&gt;
&lt;br /&gt;
 Erase disk and install Ubuntu&lt;br /&gt;
&lt;br /&gt;
Lalu pastikan disk yang dipilih adalah NVMe, biasanya:&lt;br /&gt;
&lt;br /&gt;
 /dev/nvme0n1&lt;br /&gt;
&lt;br /&gt;
Contoh partisi yang biasanya dibuat:&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Partisi&lt;br /&gt;
! Fungsi&lt;br /&gt;
! Format&lt;br /&gt;
|-&lt;br /&gt;
| EFI System Partition&lt;br /&gt;
| Boot UEFI&lt;br /&gt;
| FAT32&lt;br /&gt;
|-&lt;br /&gt;
| Root &amp;lt;code&amp;gt;/&amp;lt;/code&amp;gt;&lt;br /&gt;
| Sistem Ubuntu&lt;br /&gt;
| ext4&lt;br /&gt;
|-&lt;br /&gt;
| Swap&lt;br /&gt;
| Memori tambahan&lt;br /&gt;
| swapfile atau swap partition&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Ini cara paling mudah dan relatif aman karena Ubuntu installer akan membuat struktur partisi sendiri.&lt;br /&gt;
&lt;br /&gt;
== 5. Cara Manual Format NVMe ==&lt;br /&gt;
&lt;br /&gt;
Gunakan ini kalau ingin kontrol penuh.&lt;br /&gt;
&lt;br /&gt;
Pada layar partisi manual, pilih disk:&lt;br /&gt;
&lt;br /&gt;
 /dev/nvme0n1&lt;br /&gt;
&lt;br /&gt;
Buat tabel partisi baru:&lt;br /&gt;
&lt;br /&gt;
 GPT&lt;br /&gt;
&lt;br /&gt;
Contoh skema partisi:&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Mount Point&lt;br /&gt;
! Ukuran&lt;br /&gt;
! Format&lt;br /&gt;
! Keterangan&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;code&amp;gt;/boot/efi&amp;lt;/code&amp;gt;&lt;br /&gt;
| 512 MB – 1 GB&lt;br /&gt;
| FAT32&lt;br /&gt;
| EFI System Partition&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;code&amp;gt;/&amp;lt;/code&amp;gt;&lt;br /&gt;
| 50–100 GB atau seluruh sisa disk&lt;br /&gt;
| ext4&lt;br /&gt;
| Sistem utama&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;code&amp;gt;/home&amp;lt;/code&amp;gt;&lt;br /&gt;
| Opsional&lt;br /&gt;
| ext4&lt;br /&gt;
| Data user&lt;br /&gt;
|-&lt;br /&gt;
| swap&lt;br /&gt;
| Opsional 4–16 GB&lt;br /&gt;
| swap&lt;br /&gt;
| Bisa diganti swapfile&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Rekomendasi sederhana:&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Kondisi&lt;br /&gt;
! Rekomendasi&lt;br /&gt;
|-&lt;br /&gt;
| Laptop hanya untuk Ubuntu&lt;br /&gt;
| '''Erase disk and install Ubuntu'''&lt;br /&gt;
|-&lt;br /&gt;
| Ingin dual boot&lt;br /&gt;
| Jangan erase disk; pakai manual partition&lt;br /&gt;
|-&lt;br /&gt;
| Ingin bersih total&lt;br /&gt;
| Hapus semua partisi di &amp;lt;code&amp;gt;/dev/nvme0n1&amp;lt;/code&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| Ingin aman untuk pemula&lt;br /&gt;
| Pakai format otomatis installer&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== 6. Format NVMe via Terminal dari Live USB ==&lt;br /&gt;
&lt;br /&gt;
Gunakan hanya jika paham risiko.&lt;br /&gt;
&lt;br /&gt;
'''Perintah di bawah ini akan menghapus total disk.'''&lt;br /&gt;
&lt;br /&gt;
Masuk ke '''Try Ubuntu''', lalu buka Terminal.&lt;br /&gt;
&lt;br /&gt;
Cek nama disk:&lt;br /&gt;
&lt;br /&gt;
 lsblk&lt;br /&gt;
&lt;br /&gt;
Biasanya NVMe terlihat seperti:&lt;br /&gt;
&lt;br /&gt;
 nvme0n1&lt;br /&gt;
 ├─nvme0n1p1&lt;br /&gt;
 ├─nvme0n1p2&lt;br /&gt;
 └─nvme0n1p3&lt;br /&gt;
&lt;br /&gt;
Hapus tanda tangan partisi lama:&lt;br /&gt;
&lt;br /&gt;
 sudo wipefs -a /dev/nvme0n1&lt;br /&gt;
&lt;br /&gt;
Buat tabel partisi GPT:&lt;br /&gt;
&lt;br /&gt;
 sudo parted /dev/nvme0n1 mklabel gpt&lt;br /&gt;
&lt;br /&gt;
Buat partisi EFI:&lt;br /&gt;
&lt;br /&gt;
 sudo parted -a optimal /dev/nvme0n1 mkpart ESP fat32 1MiB 1025MiB&lt;br /&gt;
 sudo parted /dev/nvme0n1 set 1 esp on&lt;br /&gt;
 sudo mkfs.fat -F32 /dev/nvme0n1p1&lt;br /&gt;
&lt;br /&gt;
Buat partisi root:&lt;br /&gt;
&lt;br /&gt;
 sudo parted -a optimal /dev/nvme0n1 mkpart primary ext4 1025MiB 100%&lt;br /&gt;
 sudo mkfs.ext4 /dev/nvme0n1p2&lt;br /&gt;
&lt;br /&gt;
Setelah itu jalankan installer Ubuntu, lalu pilih '''Manual installation'''.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Partisi&lt;br /&gt;
! Pakai sebagai&lt;br /&gt;
! Mount point&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;code&amp;gt;/dev/nvme0n1p1&amp;lt;/code&amp;gt;&lt;br /&gt;
| EFI System Partition&lt;br /&gt;
| &amp;lt;code&amp;gt;/boot/efi&amp;lt;/code&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;code&amp;gt;/dev/nvme0n1p2&amp;lt;/code&amp;gt;&lt;br /&gt;
| ext4&lt;br /&gt;
| &amp;lt;code&amp;gt;/&amp;lt;/code&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== 7. Masalah yang Sering Terjadi di Laptop HP ==&lt;br /&gt;
&lt;br /&gt;
=== USB tidak muncul di Boot Menu ===&lt;br /&gt;
&lt;br /&gt;
Masuk BIOS:&lt;br /&gt;
&lt;br /&gt;
 Esc → F10&lt;br /&gt;
&lt;br /&gt;
Cek:&lt;br /&gt;
&lt;br /&gt;
* '''USB Boot''' harus aktif.&lt;br /&gt;
* Boot mode sebaiknya '''UEFI'''.&lt;br /&gt;
* Coba port USB lain.&lt;br /&gt;
* Buat ulang USB installer.&lt;br /&gt;
&lt;br /&gt;
=== Installer tidak melihat NVMe ===&lt;br /&gt;
&lt;br /&gt;
Di BIOS HP, cek:&lt;br /&gt;
&lt;br /&gt;
* Storage mode: kalau ada pilihan '''RAID / Intel RST / AHCI''', pilih '''AHCI'''.&lt;br /&gt;
* Matikan sementara ''Secure Boot'' jika installer bermasalah.&lt;br /&gt;
* Pastikan NVMe terbaca di BIOS.&lt;br /&gt;
&lt;br /&gt;
=== Setelah install tidak boot ===&lt;br /&gt;
&lt;br /&gt;
Coba:&lt;br /&gt;
&lt;br /&gt;
 Esc → F9 → pilih Ubuntu&lt;br /&gt;
&lt;br /&gt;
Atau masuk BIOS:&lt;br /&gt;
&lt;br /&gt;
 Esc → F10 → Boot Order&lt;br /&gt;
&lt;br /&gt;
Naikkan '''Ubuntu''' ke urutan pertama.&lt;br /&gt;
&lt;br /&gt;
== 8. Ringkasan Cepat ==&lt;br /&gt;
&lt;br /&gt;
Langkah paling mudah:&lt;br /&gt;
&lt;br /&gt;
# Backup data.&lt;br /&gt;
# Download ISO Ubuntu 26.04.&lt;br /&gt;
# Buat USB bootable.&lt;br /&gt;
# Di laptop HP tekan &amp;lt;code&amp;gt;Esc&amp;lt;/code&amp;gt; → &amp;lt;code&amp;gt;F9&amp;lt;/code&amp;gt;.&lt;br /&gt;
# Boot dari USB.&lt;br /&gt;
# Pilih '''Install Ubuntu'''.&lt;br /&gt;
# Pilih '''Erase disk and install Ubuntu'''.&lt;br /&gt;
# Pastikan disk adalah &amp;lt;code&amp;gt;/dev/nvme0n1&amp;lt;/code&amp;gt;.&lt;br /&gt;
# Lanjutkan instalasi.&lt;br /&gt;
# Reboot dan cabut USB.&lt;br /&gt;
&lt;br /&gt;
'''Intinya:''' untuk laptop HP dengan NVMe, cara paling sederhana adalah boot USB Ubuntu, pilih '''Erase disk and install Ubuntu''', lalu pastikan target disk benar:&lt;br /&gt;
&lt;br /&gt;
 /dev/nvme0n1&lt;br /&gt;
&lt;br /&gt;
'''Jangan salah pilih disk.''' Pastikan yang diformat adalah NVMe internal, bukan USB installer.&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Ubuntu:_Install_26.04_di_laptop_HP_nvme&amp;diff=73541</id>
		<title>Ubuntu: Install 26.04 di laptop HP nvme</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Ubuntu:_Install_26.04_di_laptop_HP_nvme&amp;diff=73541"/>
		<updated>2026-04-29T22:17:20Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Format Laptop HP NVMe dan Install Ubuntu 26.04 =&lt;br /&gt;
&lt;br /&gt;
Berikut cara '''format laptop HP dengan NVMe dan install Ubuntu 26.04'''.&lt;br /&gt;
&lt;br /&gt;
== 1. Siapkan USB Installer ==&lt;br /&gt;
&lt;br /&gt;
Yang dibutuhkan:&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Kebutuhan&lt;br /&gt;
! Keterangan&lt;br /&gt;
|-&lt;br /&gt;
| Flashdisk&lt;br /&gt;
| Minimal '''8–12 GB'''&lt;br /&gt;
|-&lt;br /&gt;
| File ISO&lt;br /&gt;
| Ubuntu Desktop 26.04 LTS&lt;br /&gt;
|-&lt;br /&gt;
| Backup&lt;br /&gt;
| '''Wajib''', karena format akan menghapus data&lt;br /&gt;
|-&lt;br /&gt;
| Laptop HP&lt;br /&gt;
| Charger terpasang&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Download ISO dari halaman resmi Ubuntu.&lt;br /&gt;
&lt;br /&gt;
Untuk membuat USB bootable, gunakan:&lt;br /&gt;
&lt;br /&gt;
* ''Startup Disk Creator'' di Ubuntu&lt;br /&gt;
* Rufus di Windows&lt;br /&gt;
* balenaEtcher di Windows/Linux/macOS&lt;br /&gt;
&lt;br /&gt;
== 2. Masuk Boot Menu Laptop HP ==&lt;br /&gt;
&lt;br /&gt;
Pada laptop HP biasanya:&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Fungsi&lt;br /&gt;
! Tombol&lt;br /&gt;
|-&lt;br /&gt;
| '''Boot Menu'''&lt;br /&gt;
| &amp;lt;code&amp;gt;Esc&amp;lt;/code&amp;gt;, lalu &amp;lt;code&amp;gt;F9&amp;lt;/code&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| BIOS/UEFI Setup&lt;br /&gt;
| &amp;lt;code&amp;gt;Esc&amp;lt;/code&amp;gt;, lalu &amp;lt;code&amp;gt;F10&amp;lt;/code&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| System Information&lt;br /&gt;
| &amp;lt;code&amp;gt;Esc&amp;lt;/code&amp;gt;, lalu &amp;lt;code&amp;gt;F1&amp;lt;/code&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Langkah:&lt;br /&gt;
&lt;br /&gt;
# Colok USB installer Ubuntu.&lt;br /&gt;
# Nyalakan laptop.&lt;br /&gt;
# Tekan berulang &amp;lt;code&amp;gt;Esc&amp;lt;/code&amp;gt;.&lt;br /&gt;
# Pilih &amp;lt;code&amp;gt;F9 Boot Device Options&amp;lt;/code&amp;gt;.&lt;br /&gt;
# Pilih USB Ubuntu.&lt;br /&gt;
# Boot ke menu installer Ubuntu.&lt;br /&gt;
&lt;br /&gt;
== 3. Pilih Mode Install ==&lt;br /&gt;
&lt;br /&gt;
Setelah masuk Ubuntu Installer:&lt;br /&gt;
&lt;br /&gt;
# Pilih '''Try or Install Ubuntu'''.&lt;br /&gt;
# Pilih bahasa.&lt;br /&gt;
# Pilih keyboard.&lt;br /&gt;
# Pilih koneksi internet jika perlu.&lt;br /&gt;
# Pada bagian instalasi, pilih salah satu:&lt;br /&gt;
&lt;br /&gt;
* '''Erase disk and install Ubuntu''' jika seluruh NVMe akan dihapus.&lt;br /&gt;
* '''Manual installation''' atau '''Something else''' jika ingin mengatur partisi sendiri.&lt;br /&gt;
&lt;br /&gt;
'''Peringatan penting:''' pilihan '''Erase disk and install Ubuntu''' akan menghapus seluruh isi disk yang dipilih, termasuk Windows, partisi recovery, dan semua data.&lt;br /&gt;
&lt;br /&gt;
== 4. Cara Aman: Format Otomatis oleh Installer ==&lt;br /&gt;
&lt;br /&gt;
Untuk kebanyakan pengguna, pilih:&lt;br /&gt;
&lt;br /&gt;
 Erase disk and install Ubuntu&lt;br /&gt;
&lt;br /&gt;
Lalu pastikan disk yang dipilih adalah NVMe, biasanya:&lt;br /&gt;
&lt;br /&gt;
 /dev/nvme0n1&lt;br /&gt;
&lt;br /&gt;
Contoh partisi yang biasanya dibuat:&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Partisi&lt;br /&gt;
! Fungsi&lt;br /&gt;
! Format&lt;br /&gt;
|-&lt;br /&gt;
| EFI System Partition&lt;br /&gt;
| Boot UEFI&lt;br /&gt;
| FAT32&lt;br /&gt;
|-&lt;br /&gt;
| Root &amp;lt;code&amp;gt;/&amp;lt;/code&amp;gt;&lt;br /&gt;
| Sistem Ubuntu&lt;br /&gt;
| ext4&lt;br /&gt;
|-&lt;br /&gt;
| Swap&lt;br /&gt;
| Memori tambahan&lt;br /&gt;
| swapfile atau swap partition&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Ini cara paling mudah dan relatif aman karena Ubuntu installer akan membuat struktur partisi sendiri.&lt;br /&gt;
&lt;br /&gt;
== 5. Cara Manual Format NVMe ==&lt;br /&gt;
&lt;br /&gt;
Gunakan ini kalau ingin kontrol penuh.&lt;br /&gt;
&lt;br /&gt;
Pada layar partisi manual, pilih disk:&lt;br /&gt;
&lt;br /&gt;
 /dev/nvme0n1&lt;br /&gt;
&lt;br /&gt;
Buat tabel partisi baru:&lt;br /&gt;
&lt;br /&gt;
 GPT&lt;br /&gt;
&lt;br /&gt;
Contoh skema partisi:&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Mount Point&lt;br /&gt;
! Ukuran&lt;br /&gt;
! Format&lt;br /&gt;
! Keterangan&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;code&amp;gt;/boot/efi&amp;lt;/code&amp;gt;&lt;br /&gt;
| 512 MB – 1 GB&lt;br /&gt;
| FAT32&lt;br /&gt;
| EFI System Partition&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;code&amp;gt;/&amp;lt;/code&amp;gt;&lt;br /&gt;
| 50–100 GB atau seluruh sisa disk&lt;br /&gt;
| ext4&lt;br /&gt;
| Sistem utama&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;code&amp;gt;/home&amp;lt;/code&amp;gt;&lt;br /&gt;
| Opsional&lt;br /&gt;
| ext4&lt;br /&gt;
| Data user&lt;br /&gt;
|-&lt;br /&gt;
| swap&lt;br /&gt;
| Opsional 4–16 GB&lt;br /&gt;
| swap&lt;br /&gt;
| Bisa diganti swapfile&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Rekomendasi sederhana:&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Kondisi&lt;br /&gt;
! Rekomendasi&lt;br /&gt;
|-&lt;br /&gt;
| Laptop hanya untuk Ubuntu&lt;br /&gt;
| '''Erase disk and install Ubuntu'''&lt;br /&gt;
|-&lt;br /&gt;
| Ingin dual boot&lt;br /&gt;
| Jangan erase disk; pakai manual partition&lt;br /&gt;
|-&lt;br /&gt;
| Ingin bersih total&lt;br /&gt;
| Hapus semua partisi di &amp;lt;code&amp;gt;/dev/nvme0n1&amp;lt;/code&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| Ingin aman untuk pemula&lt;br /&gt;
| Pakai format otomatis installer&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== 6. Format NVMe via Terminal dari Live USB ==&lt;br /&gt;
&lt;br /&gt;
Gunakan hanya jika paham risiko.&lt;br /&gt;
&lt;br /&gt;
'''Perintah di bawah ini akan menghapus total disk.'''&lt;br /&gt;
&lt;br /&gt;
Masuk ke '''Try Ubuntu''', lalu buka Terminal.&lt;br /&gt;
&lt;br /&gt;
Cek nama disk:&lt;br /&gt;
&lt;br /&gt;
 lsblk&lt;br /&gt;
&lt;br /&gt;
Biasanya NVMe terlihat seperti:&lt;br /&gt;
&lt;br /&gt;
 nvme0n1&lt;br /&gt;
 ├─nvme0n1p1&lt;br /&gt;
 ├─nvme0n1p2&lt;br /&gt;
 └─nvme0n1p3&lt;br /&gt;
&lt;br /&gt;
Hapus tanda tangan partisi lama:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
sudo wipefs -a /dev/nvme0n1&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Buat tabel partisi GPT:&lt;br /&gt;
&lt;br /&gt;
 sudo parted /dev/nvme0n1 mklabel gpt&lt;br /&gt;
&lt;br /&gt;
Buat partisi EFI:&lt;br /&gt;
&lt;br /&gt;
 sudo parted -a optimal /dev/nvme0n1 mkpart ESP fat32 1MiB 1025MiB&lt;br /&gt;
 sudo parted /dev/nvme0n1 set 1 esp on&lt;br /&gt;
 sudo mkfs.fat -F32 /dev/nvme0n1p1&lt;br /&gt;
&lt;br /&gt;
Buat partisi root:&lt;br /&gt;
&lt;br /&gt;
 sudo parted -a optimal /dev/nvme0n1 mkpart primary ext4 1025MiB 100%&lt;br /&gt;
 sudo mkfs.ext4 /dev/nvme0n1p2&lt;br /&gt;
&lt;br /&gt;
Setelah itu jalankan installer Ubuntu, lalu pilih '''Manual installation'''.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Partisi&lt;br /&gt;
! Pakai sebagai&lt;br /&gt;
! Mount point&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;code&amp;gt;/dev/nvme0n1p1&amp;lt;/code&amp;gt;&lt;br /&gt;
| EFI System Partition&lt;br /&gt;
| &amp;lt;code&amp;gt;/boot/efi&amp;lt;/code&amp;gt;&lt;br /&gt;
|-&lt;br /&gt;
| &amp;lt;code&amp;gt;/dev/nvme0n1p2&amp;lt;/code&amp;gt;&lt;br /&gt;
| ext4&lt;br /&gt;
| &amp;lt;code&amp;gt;/&amp;lt;/code&amp;gt;&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== 7. Masalah yang Sering Terjadi di Laptop HP ==&lt;br /&gt;
&lt;br /&gt;
=== USB tidak muncul di Boot Menu ===&lt;br /&gt;
&lt;br /&gt;
Masuk BIOS:&lt;br /&gt;
&lt;br /&gt;
 Esc → F10&lt;br /&gt;
&lt;br /&gt;
Cek:&lt;br /&gt;
&lt;br /&gt;
* '''USB Boot''' harus aktif.&lt;br /&gt;
* Boot mode sebaiknya '''UEFI'''.&lt;br /&gt;
* Coba port USB lain.&lt;br /&gt;
* Buat ulang USB installer.&lt;br /&gt;
&lt;br /&gt;
=== Installer tidak melihat NVMe ===&lt;br /&gt;
&lt;br /&gt;
Di BIOS HP, cek:&lt;br /&gt;
&lt;br /&gt;
* Storage mode: kalau ada pilihan '''RAID / Intel RST / AHCI''', pilih '''AHCI'''.&lt;br /&gt;
* Matikan sementara ''Secure Boot'' jika installer bermasalah.&lt;br /&gt;
* Pastikan NVMe terbaca di BIOS.&lt;br /&gt;
&lt;br /&gt;
=== Setelah install tidak boot ===&lt;br /&gt;
&lt;br /&gt;
Coba:&lt;br /&gt;
&lt;br /&gt;
 Esc → F9 → pilih Ubuntu&lt;br /&gt;
&lt;br /&gt;
Atau masuk BIOS:&lt;br /&gt;
&lt;br /&gt;
 Esc → F10 → Boot Order&lt;br /&gt;
&lt;br /&gt;
Naikkan '''Ubuntu''' ke urutan pertama.&lt;br /&gt;
&lt;br /&gt;
== 8. Ringkasan Cepat ==&lt;br /&gt;
&lt;br /&gt;
Langkah paling mudah:&lt;br /&gt;
&lt;br /&gt;
# Backup data.&lt;br /&gt;
# Download ISO Ubuntu 26.04.&lt;br /&gt;
# Buat USB bootable.&lt;br /&gt;
# Di laptop HP tekan &amp;lt;code&amp;gt;Esc&amp;lt;/code&amp;gt; → &amp;lt;code&amp;gt;F9&amp;lt;/code&amp;gt;.&lt;br /&gt;
# Boot dari USB.&lt;br /&gt;
# Pilih '''Install Ubuntu'''.&lt;br /&gt;
# Pilih '''Erase disk and install Ubuntu'''.&lt;br /&gt;
# Pastikan disk adalah &amp;lt;code&amp;gt;/dev/nvme0n1&amp;lt;/code&amp;gt;.&lt;br /&gt;
# Lanjutkan instalasi.&lt;br /&gt;
# Reboot dan cabut USB.&lt;br /&gt;
&lt;br /&gt;
'''Intinya:''' untuk laptop HP dengan NVMe, cara paling sederhana adalah boot USB Ubuntu, pilih '''Erase disk and install Ubuntu''', lalu pastikan target disk benar:&lt;br /&gt;
&lt;br /&gt;
 /dev/nvme0n1&lt;br /&gt;
&lt;br /&gt;
'''Jangan salah pilih disk.''' Pastikan yang diformat adalah NVMe internal, bukan USB installer.&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=NVME:_Ubuntu_26.04_Deteksi&amp;diff=73540</id>
		<title>NVME: Ubuntu 26.04 Deteksi</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=NVME:_Ubuntu_26.04_Deteksi&amp;diff=73540"/>
		<updated>2026-04-29T22:08:42Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
= Detect NVMe di Ubuntu =&lt;br /&gt;
&lt;br /&gt;
Untuk '''detect NVMe di Ubuntu''', jalankan beberapa perintah berikut dari Terminal.&lt;br /&gt;
&lt;br /&gt;
== 1. Cek disk NVMe paling cepat ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
lsblk -o NAME,MODEL,SIZE,TYPE,FSTYPE,MOUNTPOINT&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Kalau NVMe terdeteksi, biasanya muncul seperti ini:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
nvme0n1       Samsung SSD 980  500G disk&lt;br /&gt;
├─nvme0n1p1                  512M part vfat  /boot/efi&lt;br /&gt;
└─nvme0n1p2                  499G part ext4  /&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nama device NVMe biasanya:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
/dev/nvme0n1&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Partisinya biasanya:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
/dev/nvme0n1p1&lt;br /&gt;
/dev/nvme0n1p2&lt;br /&gt;
/dev/nvme0n1p3&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== 2. Cek dengan fdisk ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
sudo fdisk -l&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Cari bagian seperti:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
Disk /dev/nvme0n1: 476 GiB&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== 3. Cek detail hardware NVMe ==&lt;br /&gt;
&lt;br /&gt;
Install tool NVMe:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
sudo apt update&lt;br /&gt;
sudo apt install -y nvme-cli&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Lalu cek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
sudo nvme list&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Contoh output:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
Node             SN                   Model                 Namespace Usage&lt;br /&gt;
/dev/nvme0n1     S64ANX0T123456       Samsung SSD 980       1         500 GB&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== 4. Cek dari PCI device ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
lspci | grep -i nvme&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Atau:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
lspci | grep -i storage&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Contoh output:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
01:00.0 Non-Volatile memory controller: Samsung Electronics NVMe SSD Controller&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== 5. Cek pesan kernel ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
dmesg | grep -i nvme&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Atau lebih rapi:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
sudo dmesg | grep -iE 'nvme|ssd|storage'&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== 6. Cek kesehatan NVMe ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
sudo nvme smart-log /dev/nvme0n1&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Atau pakai smartctl:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
sudo apt install -y smartmontools&lt;br /&gt;
sudo smartctl -a /dev/nvme0n1&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== 7. Kalau NVMe tidak muncul ==&lt;br /&gt;
&lt;br /&gt;
Cek ini:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
ls /dev/nvme*&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Kalau hasilnya:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
No such file or directory&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Berarti NVMe belum terdeteksi oleh kernel Ubuntu.&lt;br /&gt;
&lt;br /&gt;
Kemungkinan penyebab:&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Masalah&lt;br /&gt;
! Solusi&lt;br /&gt;
|-&lt;br /&gt;
| Mode storage BIOS pakai RAID/RST&lt;br /&gt;
| Ubah ke '''AHCI'''&lt;br /&gt;
|-&lt;br /&gt;
| NVMe disable di BIOS&lt;br /&gt;
| Aktifkan storage/NVMe&lt;br /&gt;
|-&lt;br /&gt;
| Secure Boot bermasalah&lt;br /&gt;
| Coba matikan sementara&lt;br /&gt;
|-&lt;br /&gt;
| Kernel belum cocok&lt;br /&gt;
| Coba Ubuntu terbaru / update kernel&lt;br /&gt;
|-&lt;br /&gt;
| NVMe rusak / longgar&lt;br /&gt;
| Cek fisik SSD NVMe&lt;br /&gt;
|-&lt;br /&gt;
| Installer USB bermasalah&lt;br /&gt;
| Buat ulang USB installer&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Untuk laptop HP, masuk BIOS biasanya:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
Esc → F10&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Boot menu:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
Esc → F9&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Perintah diagnosis cepat ==&lt;br /&gt;
&lt;br /&gt;
Copy-paste ini:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
echo &amp;quot;=== LSBLK ===&amp;quot;&lt;br /&gt;
lsblk -o NAME,MODEL,SIZE,TYPE,FSTYPE,MOUNTPOINT&lt;br /&gt;
&lt;br /&gt;
echo &amp;quot;=== NVME LIST ===&amp;quot;&lt;br /&gt;
sudo nvme list 2&amp;gt;/dev/null || echo &amp;quot;nvme-cli belum terinstall&amp;quot;&lt;br /&gt;
&lt;br /&gt;
echo &amp;quot;=== LSPCI STORAGE ===&amp;quot;&lt;br /&gt;
lspci | grep -iE 'nvme|storage|raid|sata'&lt;br /&gt;
&lt;br /&gt;
echo &amp;quot;=== DMESG NVME ===&amp;quot;&lt;br /&gt;
sudo dmesg | grep -iE 'nvme|ssd|storage' | tail -50&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Kalau ingin format/install Ubuntu, pastikan yang muncul adalah disk seperti:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
/dev/nvme0n1&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jangan salah pilih''' &amp;lt;code&amp;gt;/dev/sda&amp;lt;/code&amp;gt; atau USB installer.&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=NVME:_Ubuntu_26.04_Deteksi&amp;diff=73539</id>
		<title>NVME: Ubuntu 26.04 Deteksi</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=NVME:_Ubuntu_26.04_Deteksi&amp;diff=73539"/>
		<updated>2026-04-29T22:07:34Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;```wiki = Detect NVMe di Ubuntu =  Untuk '''detect NVMe di Ubuntu''', jalankan beberapa perintah berikut dari Terminal.  == 1. Cek disk NVMe paling cepat ==  &amp;lt;syntaxhighlight...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;```wiki&lt;br /&gt;
= Detect NVMe di Ubuntu =&lt;br /&gt;
&lt;br /&gt;
Untuk '''detect NVMe di Ubuntu''', jalankan beberapa perintah berikut dari Terminal.&lt;br /&gt;
&lt;br /&gt;
== 1. Cek disk NVMe paling cepat ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
lsblk -o NAME,MODEL,SIZE,TYPE,FSTYPE,MOUNTPOINT&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Kalau NVMe terdeteksi, biasanya muncul seperti ini:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
nvme0n1       Samsung SSD 980  500G disk&lt;br /&gt;
├─nvme0n1p1                  512M part vfat  /boot/efi&lt;br /&gt;
└─nvme0n1p2                  499G part ext4  /&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nama device NVMe biasanya:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
/dev/nvme0n1&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Partisinya biasanya:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
/dev/nvme0n1p1&lt;br /&gt;
/dev/nvme0n1p2&lt;br /&gt;
/dev/nvme0n1p3&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== 2. Cek dengan fdisk ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
sudo fdisk -l&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Cari bagian seperti:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
Disk /dev/nvme0n1: 476 GiB&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== 3. Cek detail hardware NVMe ==&lt;br /&gt;
&lt;br /&gt;
Install tool NVMe:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
sudo apt update&lt;br /&gt;
sudo apt install -y nvme-cli&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Lalu cek:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
sudo nvme list&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Contoh output:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
Node             SN                   Model                 Namespace Usage&lt;br /&gt;
/dev/nvme0n1     S64ANX0T123456       Samsung SSD 980       1         500 GB&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== 4. Cek dari PCI device ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
lspci | grep -i nvme&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Atau:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
lspci | grep -i storage&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Contoh output:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
01:00.0 Non-Volatile memory controller: Samsung Electronics NVMe SSD Controller&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== 5. Cek pesan kernel ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
dmesg | grep -i nvme&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Atau lebih rapi:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
sudo dmesg | grep -iE 'nvme|ssd|storage'&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== 6. Cek kesehatan NVMe ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
sudo nvme smart-log /dev/nvme0n1&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Atau pakai smartctl:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
sudo apt install -y smartmontools&lt;br /&gt;
sudo smartctl -a /dev/nvme0n1&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== 7. Kalau NVMe tidak muncul ==&lt;br /&gt;
&lt;br /&gt;
Cek ini:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
ls /dev/nvme*&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Kalau hasilnya:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
No such file or directory&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Berarti NVMe belum terdeteksi oleh kernel Ubuntu.&lt;br /&gt;
&lt;br /&gt;
Kemungkinan penyebab:&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Masalah&lt;br /&gt;
! Solusi&lt;br /&gt;
|-&lt;br /&gt;
| Mode storage BIOS pakai RAID/RST&lt;br /&gt;
| Ubah ke '''AHCI'''&lt;br /&gt;
|-&lt;br /&gt;
| NVMe disable di BIOS&lt;br /&gt;
| Aktifkan storage/NVMe&lt;br /&gt;
|-&lt;br /&gt;
| Secure Boot bermasalah&lt;br /&gt;
| Coba matikan sementara&lt;br /&gt;
|-&lt;br /&gt;
| Kernel belum cocok&lt;br /&gt;
| Coba Ubuntu terbaru / update kernel&lt;br /&gt;
|-&lt;br /&gt;
| NVMe rusak / longgar&lt;br /&gt;
| Cek fisik SSD NVMe&lt;br /&gt;
|-&lt;br /&gt;
| Installer USB bermasalah&lt;br /&gt;
| Buat ulang USB installer&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Untuk laptop HP, masuk BIOS biasanya:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
Esc → F10&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Boot menu:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
Esc → F9&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Perintah diagnosis cepat ==&lt;br /&gt;
&lt;br /&gt;
Copy-paste ini:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;bash&amp;quot;&amp;gt;&lt;br /&gt;
echo &amp;quot;=== LSBLK ===&amp;quot;&lt;br /&gt;
lsblk -o NAME,MODEL,SIZE,TYPE,FSTYPE,MOUNTPOINT&lt;br /&gt;
&lt;br /&gt;
echo &amp;quot;=== NVME LIST ===&amp;quot;&lt;br /&gt;
sudo nvme list 2&amp;gt;/dev/null || echo &amp;quot;nvme-cli belum terinstall&amp;quot;&lt;br /&gt;
&lt;br /&gt;
echo &amp;quot;=== LSPCI STORAGE ===&amp;quot;&lt;br /&gt;
lspci | grep -iE 'nvme|storage|raid|sata'&lt;br /&gt;
&lt;br /&gt;
echo &amp;quot;=== DMESG NVME ===&amp;quot;&lt;br /&gt;
sudo dmesg | grep -iE 'nvme|ssd|storage' | tail -50&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Kalau ingin format/install Ubuntu, pastikan yang muncul adalah disk seperti:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;pre&amp;gt;&lt;br /&gt;
/dev/nvme0n1&lt;br /&gt;
&amp;lt;/pre&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Jangan salah pilih''' &amp;lt;code&amp;gt;/dev/sda&amp;lt;/code&amp;gt; atau USB installer.&lt;br /&gt;
```&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=NVME&amp;diff=73538</id>
		<title>NVME</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=NVME&amp;diff=73538"/>
		<updated>2026-04-29T22:06:17Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Pranala Menarik */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[NVME: Ubuntu 26.04 Deteksi]]&lt;br /&gt;
* [[NVME: Finding your new Intel SSD for PCIe]]&lt;br /&gt;
* [[NVME: max latency di grub]]&lt;br /&gt;
* [[NVME: GRUB edit]]&lt;br /&gt;
* [[RTL8723DE Driver]]&lt;br /&gt;
* [[RTL8723DE via GITHUB]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Ubuntu:_Install_26.04_di_laptop_HP_nvme&amp;diff=73537</id>
		<title>Ubuntu: Install 26.04 di laptop HP nvme</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Ubuntu:_Install_26.04_di_laptop_HP_nvme&amp;diff=73537"/>
		<updated>2026-04-29T21:55:48Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;Berikut cara **format laptop HP dengan NVMe dan install Ubuntu 26.04**. Ubuntu 26.04 LTS sudah tersedia sebagai rilis resmi Canonical, dan Ubuntu menyediakan ISO Desktop 64-bi...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Berikut cara **format laptop HP dengan NVMe dan install Ubuntu 26.04**. Ubuntu 26.04 LTS sudah tersedia sebagai rilis resmi Canonical, dan Ubuntu menyediakan ISO Desktop 64-bit AMD64 untuk PC/laptop umum. ([Canonical][1])&lt;br /&gt;
&lt;br /&gt;
## 1. Siapkan USB Installer&lt;br /&gt;
&lt;br /&gt;
Yang dibutuhkan:&lt;br /&gt;
&lt;br /&gt;
| Kebutuhan | Keterangan                                   |&lt;br /&gt;
| --------- | -------------------------------------------- |&lt;br /&gt;
| Flashdisk | Minimal **8–12 GB**                          |&lt;br /&gt;
| File ISO  | Ubuntu Desktop 26.04 LTS                     |&lt;br /&gt;
| Backup    | **Wajib**, karena format akan menghapus data |&lt;br /&gt;
| Laptop HP | Charger terpasang                            |&lt;br /&gt;
&lt;br /&gt;
Download ISO dari halaman resmi Ubuntu. Untuk membuat USB bootable, Ubuntu menyediakan panduan resmi memakai *Startup Disk Creator* di Ubuntu, atau tools seperti Rufus/balenaEtcher dari Windows. ([Ubuntu][2])&lt;br /&gt;
&lt;br /&gt;
## 2. Masuk Boot Menu Laptop HP&lt;br /&gt;
&lt;br /&gt;
Pada laptop HP biasanya:&lt;br /&gt;
&lt;br /&gt;
| Fungsi             | Tombol            |&lt;br /&gt;
| ------------------ | ----------------- |&lt;br /&gt;
| **Boot Menu**      | `Esc`, lalu `F9`  |&lt;br /&gt;
| BIOS/UEFI Setup    | `Esc`, lalu `F10` |&lt;br /&gt;
| System Information | `Esc`, lalu `F1`  |&lt;br /&gt;
&lt;br /&gt;
Langkah:&lt;br /&gt;
&lt;br /&gt;
1. Colok USB installer Ubuntu.&lt;br /&gt;
2. Nyalakan laptop.&lt;br /&gt;
3. Tekan berulang `Esc`.&lt;br /&gt;
4. Pilih `F9 Boot Device Options`.&lt;br /&gt;
5. Pilih USB Ubuntu.&lt;br /&gt;
6. Boot ke menu installer Ubuntu.&lt;br /&gt;
&lt;br /&gt;
## 3. Pilih Mode Install&lt;br /&gt;
&lt;br /&gt;
Setelah masuk Ubuntu Installer:&lt;br /&gt;
&lt;br /&gt;
1. Pilih **Try or Install Ubuntu**.&lt;br /&gt;
2. Pilih bahasa.&lt;br /&gt;
3. Pilih keyboard.&lt;br /&gt;
4. Pilih koneksi internet jika perlu.&lt;br /&gt;
5. Pada bagian instalasi, pilih:&lt;br /&gt;
&lt;br /&gt;
   * **Erase disk and install Ubuntu** jika seluruh NVMe akan dihapus.&lt;br /&gt;
   * **Manual installation / Something else** jika ingin atur partisi sendiri.&lt;br /&gt;
&lt;br /&gt;
Peringatan penting: pilihan **Erase disk and install Ubuntu** akan menghapus seluruh isi disk yang dipilih, termasuk Windows, partisi recovery, dan semua data. Panduan resmi Ubuntu juga menjelaskan proses instalasi dilakukan melalui installer terpandu untuk laptop/PC. ([Ubuntu][3])&lt;br /&gt;
&lt;br /&gt;
## 4. Cara Aman: Format Otomatis oleh Installer&lt;br /&gt;
&lt;br /&gt;
Untuk kebanyakan pengguna, pilih:&lt;br /&gt;
&lt;br /&gt;
**Erase disk and install Ubuntu**&lt;br /&gt;
&lt;br /&gt;
Lalu pastikan disk yang dipilih adalah NVMe, biasanya namanya seperti:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
/dev/nvme0n1&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Contoh partisi yang biasanya dibuat:&lt;br /&gt;
&lt;br /&gt;
| Partisi              | Fungsi          | Format                       |&lt;br /&gt;
| -------------------- | --------------- | ---------------------------- |&lt;br /&gt;
| EFI System Partition | Boot UEFI       | FAT32                        |&lt;br /&gt;
| Root `/`             | Sistem Ubuntu   | ext4                         |&lt;br /&gt;
| Swap                 | Memori tambahan | swapfile atau swap partition |&lt;br /&gt;
&lt;br /&gt;
Ini cara paling mudah dan relatif aman karena Ubuntu installer akan membuat struktur partisi sendiri.&lt;br /&gt;
&lt;br /&gt;
## 5. Cara Manual Format NVMe&lt;br /&gt;
&lt;br /&gt;
Gunakan ini kalau ingin kontrol penuh.&lt;br /&gt;
&lt;br /&gt;
Pada layar partisi manual, pilih disk:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
/dev/nvme0n1&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Buat tabel partisi baru: **GPT**.&lt;br /&gt;
&lt;br /&gt;
Contoh skema partisi:&lt;br /&gt;
&lt;br /&gt;
| Mount Point |                           Ukuran | Format | Keterangan            |&lt;br /&gt;
| ----------- | -------------------------------: | ------ | --------------------- |&lt;br /&gt;
| `/boot/efi` |                    512 MB – 1 GB | FAT32  | EFI System Partition  |&lt;br /&gt;
| `/`         | 50–100 GB atau seluruh sisa disk | ext4   | Sistem utama          |&lt;br /&gt;
| `/home`     |                         Opsional | ext4   | Data user             |&lt;br /&gt;
| swap        |                 Opsional 4–16 GB | swap   | Bisa diganti swapfile |&lt;br /&gt;
&lt;br /&gt;
Rekomendasi sederhana:&lt;br /&gt;
&lt;br /&gt;
| Kondisi                   | Rekomendasi                               |&lt;br /&gt;
| ------------------------- | ----------------------------------------- |&lt;br /&gt;
| Laptop hanya untuk Ubuntu | **Erase disk and install Ubuntu**         |&lt;br /&gt;
| Ingin dual boot           | Jangan erase disk; pakai manual partition |&lt;br /&gt;
| Ingin bersih total        | Hapus semua partisi di `/dev/nvme0n1`     |&lt;br /&gt;
| Ingin aman untuk pemula   | Pakai format otomatis installer           |&lt;br /&gt;
&lt;br /&gt;
## 6. Format NVMe via Terminal dari Live USB&lt;br /&gt;
&lt;br /&gt;
Gunakan hanya jika paham risiko. Ini akan menghapus total disk.&lt;br /&gt;
&lt;br /&gt;
Masuk ke **Try Ubuntu**, buka Terminal.&lt;br /&gt;
&lt;br /&gt;
Cek nama disk:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
lsblk&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Biasanya NVMe terlihat seperti:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
nvme0n1&lt;br /&gt;
├─nvme0n1p1&lt;br /&gt;
├─nvme0n1p2&lt;br /&gt;
└─nvme0n1p3&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Hapus tanda tangan partisi lama:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
sudo wipefs -a /dev/nvme0n1&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Buat tabel partisi GPT:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
sudo parted /dev/nvme0n1 mklabel gpt&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Buat partisi EFI:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
sudo parted -a optimal /dev/nvme0n1 mkpart ESP fat32 1MiB 1025MiB&lt;br /&gt;
sudo parted /dev/nvme0n1 set 1 esp on&lt;br /&gt;
sudo mkfs.fat -F32 /dev/nvme0n1p1&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Buat partisi root:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
sudo parted -a optimal /dev/nvme0n1 mkpart primary ext4 1025MiB 100%&lt;br /&gt;
sudo mkfs.ext4 /dev/nvme0n1p2&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Setelah itu jalankan installer Ubuntu, lalu pilih **Manual installation**:&lt;br /&gt;
&lt;br /&gt;
| Partisi          | Pakai sebagai        | Mount point |&lt;br /&gt;
| ---------------- | -------------------- | ----------- |&lt;br /&gt;
| `/dev/nvme0n1p1` | EFI System Partition | `/boot/efi` |&lt;br /&gt;
| `/dev/nvme0n1p2` | ext4                 | `/`         |&lt;br /&gt;
&lt;br /&gt;
## 7. Masalah yang Sering Terjadi di Laptop HP&lt;br /&gt;
&lt;br /&gt;
### USB tidak muncul di Boot Menu&lt;br /&gt;
&lt;br /&gt;
Masuk BIOS:&lt;br /&gt;
&lt;br /&gt;
```text&lt;br /&gt;
Esc → F10&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Cek:&lt;br /&gt;
&lt;br /&gt;
* **USB Boot** harus aktif.&lt;br /&gt;
* Boot mode sebaiknya **UEFI**.&lt;br /&gt;
* Coba port USB lain.&lt;br /&gt;
* Buat ulang USB installer.&lt;br /&gt;
&lt;br /&gt;
### Installer tidak melihat NVMe&lt;br /&gt;
&lt;br /&gt;
Di BIOS HP, cek:&lt;br /&gt;
&lt;br /&gt;
* Storage mode: kalau ada pilihan **RAID / Intel RST / AHCI**, pilih **AHCI**.&lt;br /&gt;
* Matikan sementara *Secure Boot* jika installer bermasalah.&lt;br /&gt;
* Pastikan NVMe terbaca di BIOS.&lt;br /&gt;
&lt;br /&gt;
### Setelah install tidak boot&lt;br /&gt;
&lt;br /&gt;
Coba:&lt;br /&gt;
&lt;br /&gt;
```text&lt;br /&gt;
Esc → F9 → pilih Ubuntu&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Atau masuk BIOS:&lt;br /&gt;
&lt;br /&gt;
```text&lt;br /&gt;
Esc → F10 → Boot Order&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Naikkan **Ubuntu** ke urutan pertama.&lt;br /&gt;
&lt;br /&gt;
## 8. Ringkasan Cepat&lt;br /&gt;
&lt;br /&gt;
Langkah paling mudah:&lt;br /&gt;
&lt;br /&gt;
1. Backup data.&lt;br /&gt;
2. Download ISO Ubuntu 26.04.&lt;br /&gt;
3. Buat USB bootable.&lt;br /&gt;
4. Di laptop HP tekan `Esc` → `F9`.&lt;br /&gt;
5. Boot dari USB.&lt;br /&gt;
6. Pilih **Install Ubuntu**.&lt;br /&gt;
7. Pilih **Erase disk and install Ubuntu**.&lt;br /&gt;
8. Pastikan disk adalah `/dev/nvme0n1`.&lt;br /&gt;
9. Lanjutkan instalasi.&lt;br /&gt;
10. Reboot dan cabut USB.&lt;br /&gt;
&lt;br /&gt;
**Intinya:** untuk laptop HP dengan NVMe, cara paling sederhana adalah boot USB Ubuntu, pilih **Erase disk and install Ubuntu**, lalu pastikan target disk benar: **`/dev/nvme0n1`**.&lt;br /&gt;
&lt;br /&gt;
[1]: https://canonical.com/blog/canonical-releases-ubuntu-26-04-lts-resolute-raccoon?utm_source=chatgpt.com &amp;quot;Canonical releases Ubuntu 26.04 LTS Resolute Raccoon&amp;quot;&lt;br /&gt;
[2]: https://ubuntu.com/tutorials/create-a-usb-stick-on-ubuntu?utm_source=chatgpt.com &amp;quot;Create a bootable USB stick on Ubuntu&amp;quot;&lt;br /&gt;
[3]: https://ubuntu.com/tutorials/install-ubuntu-desktop?utm_source=chatgpt.com &amp;quot;Install Ubuntu Desktop&amp;quot;&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Ubuntu&amp;diff=73536</id>
		<title>Ubuntu</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Ubuntu&amp;diff=73536"/>
		<updated>2026-04-29T21:55:00Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Pranala Menarik */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Image:Ubuntu family tree 11-06.png|right|300px|thumb|Ubuntu dan turunannya]]&lt;br /&gt;
&lt;br /&gt;
&amp;quot;Ubuntu&amp;quot; berasal dari bahasa kuno Afrika, yang berarti &amp;quot;rasa perikemanusian terhadap sesama manusia&amp;quot;. Ubuntu juga bisa berarti &amp;quot;aku adalah aku karena keberadaan kita semua&amp;quot;. Tujuan dari distribusi [[Linux]] [[Ubuntu]] adalah membawa semangat yang terkandung di dalam [[Ubuntu]] ke dalam dunia [[perangkat lunak]].&lt;br /&gt;
&lt;br /&gt;
Ubuntu adalah [[sistem operasi]] lengkap berbasis [[Linux]], tersedia secara bebas dan mempunyai dukungan baik yang berasal dari komunitas maupun tenaga ahli profesional. Ubuntu sendiri dikembangkan oleh komunitas sukarelawan Ubuntu dan kami mengundang Anda untuk turut serta berpartisipasi mengembangkan Ubuntu!&lt;br /&gt;
&lt;br /&gt;
Komunitas Ubuntu dibentuk berdasarkan gagasan yang terdapat di dalam filosofi Ubuntu: bahwa [[perangkat lunak]] harus tersedia dengan bebas biaya, bahwa aplikasi perangkat lunak tersebut harus dapat digunakan dalam bahasa lokal masing-masing dan untuk orang-orang yang mempunyai keterbatasan fisik, dan bahwa pengguna harus mempunyai kebebasan untuk mengubah perangkat lunak sesuai dengan apa yang mereka butuhkan.&lt;br /&gt;
&lt;br /&gt;
Perihal kebebasan inilah yang membuat Ubuntu berbeda dari [[perangkat lunak]] berpemilik (proprietary); bukan hanya peralatan yang Anda butuhkan tersedia secara bebas biaya, tetapi Anda juga mempunyai hak untuk memodifikasi [[perangkat lunak]] Anda sampai [[perangkat lunak]] tersebut bekerja sesuai dengan yang Anda inginkan.&lt;br /&gt;
&lt;br /&gt;
Berikut ini adalah komitmen publik tim Ubuntu untuk para penggunanya:&lt;br /&gt;
&lt;br /&gt;
* '''Ubuntu akan selalu bebas dari biaya''', maka dari itu tidak akan ada biaya tambahan untuk &amp;quot;edisi enterprise&amp;quot;, kami akan membuat semua pekerjaan terbaik Ubuntu tersedia untuk semua orang dengan istilah Bebas yang sama.&lt;br /&gt;
* '''Ubuntu juga menyediakan dukungan komersial dari ratusan perusahaan di seluruh duni'''a. Ubuntu dirilis secara tetap dan dapat Anda prediksikan; rilis Ubuntu terbaru tersedia setiap enam bulan. Setiap rilis akan didukung oleh Ubuntu dengan perbaikan pada keamanan dan perbaikan lainnya secara bebas selama sekurangnya 18 bulan.&lt;br /&gt;
* '''Ubuntu akan menyertakan terjemahan dan prasarana aksesibilitas terbaik yang dimiliki oleh komunitas [[Perangkat Lunak]] Bebas''', hal ini berguna untuk membuat Ubuntu dapat dipergunakan oleh banyak orang. Kami juga bekerja sama dengan seluruh komunitas [[Perangkat Lunak]] Bebas dalam hal perbaikan bug dan saling membagi kode.&lt;br /&gt;
* '''Ubuntu berkomitmen secara penuh terhadap prinsip-prinsip dari pengembangan [[perangkat lunak]] bebas'''; untuk ini kami mendorong masyarakat untuk menggunakan [[perangkat lunak]] bebas dan [[open source]], lalu memperbaikinya dan kemudian menyebarkannya kembali.&lt;br /&gt;
&lt;br /&gt;
Ubuntu cocok digunakan baik untuk [[desktop]] maupun [[server]]. Ubuntu saat ini mendukung berbagai arsitektur komputer seperti PC (Intel x86), PC 64-bit (AMD64), PowerPC (Apple iBook dan Powerbook, G4 dan G5), Sun UltraSPARC dan T1 (Sun Fire T1000 dan T2000).&lt;br /&gt;
&lt;br /&gt;
Ubuntu menyertakan lebih dari 16.000 buah [[perangkat lunak]], dan untuk instalasi desktop dapat dilakukan dengan menggunakan satu [[CD]] saja. Ubuntu menyertakan semua aplikasi standar untuk desktop mulai dari [[pengolah kata]], aplikasi [[lembar sebar]] ([[spreadsheet]]) hingga aplikasi untuk mengakses [[internet]], [[perangkat lunak]] untuk [[server]] [[web]], peralatan untuk bahasa pemrograman dan tentu saja beragam permainan.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* http://www.ubuntu-id.org&lt;br /&gt;
* http://en.wikipedia.org/wiki/Ubuntu&lt;br /&gt;
* http://wiki.ubuntu.com&lt;br /&gt;
* http://ubuntu-manual.org/&lt;br /&gt;
* http://sobatubuntu.blogspot.com/&lt;br /&gt;
&lt;br /&gt;
==Tutorial==&lt;br /&gt;
&lt;br /&gt;
* http://ubuntu-indonesia.com/public/InstalasiUbuntuDesktop10.04.LTS.pdf.zip&lt;br /&gt;
* http://ubuntu-indonesia.com/public/DesktopEnviroinment.pdf.zip&lt;br /&gt;
* http://ubuntu-indonesia.com/public/OptimalisasiUbuntuLinux.pdf.zip&lt;br /&gt;
* http://ubuntu-indonesia.com/public/Tips&amp;amp;TrikUbuntu.pdf.zip&lt;br /&gt;
* http://ubuntu-indonesia.com/public/BerinternetdenganUbuntu.pdf.zip&lt;br /&gt;
* http://ubuntu-indonesia.com/public/AplikasiUbuntu.pdf.zip&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Ubuntu: Install 26.04 di laptop HP nvme]]&lt;br /&gt;
* [[Linux]]&lt;br /&gt;
* [[Linux Howto]]&lt;br /&gt;
* http://numb.web.id/ubuntu/cara-menggunakan-perintah-apt-di-ubuntu.html&lt;br /&gt;
* [[Ubuntu: Setup Languange]]&lt;br /&gt;
* [[Ubuntu: di Handphone]]&lt;br /&gt;
* [[Ubuntu: virtual audio connector]]&lt;br /&gt;
* [[Ubuntu: recording internal audio]]&lt;br /&gt;
* [[Ubuntu: Install MSSQL]]&lt;br /&gt;
* [[Ubuntu: Install di USB Flashdisk]]&lt;br /&gt;
* [[Ubuntu: Upgrade 18.04 ke 20.04]]&lt;br /&gt;
* [[Ubuntu: VLAN]]&lt;br /&gt;
* [[Ubuntu: Solusi LEMOT]]&lt;br /&gt;
* [[Ubuntu: Tethering HotSpot]]&lt;br /&gt;
* [[Ubuntu: wifi-ap]]&lt;br /&gt;
* [[Ubuntu: Drawing]]&lt;br /&gt;
* [[Ubuntu: Printer Setting CLI]]&lt;br /&gt;
* [[Ubuntu: decoder H.264 High 4:4:4 Profile]]&lt;br /&gt;
* [[Ubuntu: Install PiHole]]&lt;br /&gt;
* [[Ubuntu: Disable Unattended Upgrade]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=GNS3:_Instalasi_di_Ubuntu_26.04&amp;diff=73535</id>
		<title>GNS3: Instalasi di Ubuntu 26.04</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=GNS3:_Instalasi_di_Ubuntu_26.04&amp;diff=73535"/>
		<updated>2026-04-29T08:51:49Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;Tambahkan   sudo su  apt update  apt -y install virtualbox  Tambahkan repository   sudo su  sudo add-apt-repository ppa:gns3/ppa  Install GNS3   sudo apt update &amp;amp;&amp;amp; sudo apt -y...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Tambahkan&lt;br /&gt;
&lt;br /&gt;
 sudo su&lt;br /&gt;
 apt update&lt;br /&gt;
 apt -y install virtualbox&lt;br /&gt;
&lt;br /&gt;
Tambahkan repository&lt;br /&gt;
&lt;br /&gt;
 sudo su&lt;br /&gt;
 sudo add-apt-repository ppa:gns3/ppa&lt;br /&gt;
&lt;br /&gt;
Install GNS3&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt -y install gns3-server gns3-gui&lt;br /&gt;
&lt;br /&gt;
Install GNS3 IOU&lt;br /&gt;
&lt;br /&gt;
 sudo dpkg --add-architecture i386&lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt -y install gns3-iou&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Gns3&amp;diff=73534</id>
		<title>Gns3</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Gns3&amp;diff=73534"/>
		<updated>2026-04-29T08:51:28Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Instalasi */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;GNS3 adalah simulator jaringan grafis yang memungkinkan anda untuk merancang topologi jaringan yang kompleks. Anda dapat menjalankan simulasi atau mengkonfigurasi perangkat mulai dari workstation sederhana hingga  router yang powerfull seperti Cisco. Hal ini didasarkan pada Dynamips, Pemu/Qemu dan Dynagen.&lt;br /&gt;
&lt;br /&gt;
==Lebih Lanjut==&lt;br /&gt;
&lt;br /&gt;
===Menyiapkan Image Router dan Server===&lt;br /&gt;
&lt;br /&gt;
* [[GNS3: Download]]&lt;br /&gt;
* [[GNS3: Cisco Download]]&lt;br /&gt;
* [[GNS3: Juniper Download]]&lt;br /&gt;
* [[GNS3: Mikrotik Download]]&lt;br /&gt;
* [[GNS3: OpenWRT Download]]&lt;br /&gt;
* [[GNS3: Appliance]]&lt;br /&gt;
* [[GNS3: Download Image Ubuntu untuk Qemu]]&lt;br /&gt;
* [[GNS3: Port socat pada Ubuntu Image agar bisa di remote di GNS3]]&lt;br /&gt;
* [[GNS3: Membuat Image OpenWRT untuk VirtualBox]]&lt;br /&gt;
* [[GNS3: Menambahkan Image OpenWRT di VirtualBox]]&lt;br /&gt;
* [[GNS3: Menambahkan Image Ubuntu Server di VirtualBox]]&lt;br /&gt;
&lt;br /&gt;
===Instalasi===&lt;br /&gt;
&lt;br /&gt;
* [[GNS3: Instalasi]]&lt;br /&gt;
* [[GNS3: Instalasi di Ubuntu 22.04]]&lt;br /&gt;
* [[GNS3: Instalasi di Ubuntu 24.04]]&lt;br /&gt;
* [[GNS3: Instalasi di Ubuntu 26.04]]&lt;br /&gt;
* [[GNS3: Reset]]&lt;br /&gt;
* [[GNS3: Router fisik dekat PC running GNS3]]&lt;br /&gt;
* [[GNS3: remove purge]]&lt;br /&gt;
* [[GNS3: Edit Preferences untuk VirtualBox]]&lt;br /&gt;
* [[GNS3: Edit Preferences untuk Qemu]]&lt;br /&gt;
* [[GNS3: Re-install dynamips untuk IOS]]&lt;br /&gt;
* [[GNS3: KVM dan QEMU Permission Deny]]&lt;br /&gt;
* [[GNS3: Image Appliances]]&lt;br /&gt;
* [[GNS3: Cisco Idle-PC dan Image]]&lt;br /&gt;
* [[VirtualBox: kvm vs. vboxdrv]]&lt;br /&gt;
* [[GNS3: dynamips compile untuk simulator Cisco]]&lt;br /&gt;
&lt;br /&gt;
===Simulasi Sederhana===&lt;br /&gt;
&lt;br /&gt;
* [[GNS3: Menyambungkan LAN / Switch ke Cloud Internet]]&lt;br /&gt;
* [[GNS3: Menyambungkan LAN / Switch ke NAT]]&lt;br /&gt;
* [[GNS3: Membuat Simulasi Sederhana]]&lt;br /&gt;
* [[Mikrotik: Router Sederhana]]&lt;br /&gt;
* [[GNS3: Jaringan Sederhana dengan OpenWRT]]&lt;br /&gt;
&lt;br /&gt;
===VPCS===&lt;br /&gt;
&lt;br /&gt;
* [[GNS3: VPCS ip setup]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Juniper===&lt;br /&gt;
&lt;br /&gt;
* [[GNS3: JunOS default password]]&lt;br /&gt;
&lt;br /&gt;
===Simulasi Jaringan===&lt;br /&gt;
&lt;br /&gt;
* [[GNS3: Tips]]&lt;br /&gt;
* [[GNS3: Konfigurasi Host Komputer]]&lt;br /&gt;
* [[VirtualBox: GNS3 Network Adapter Generic UDP Tunnel]]&lt;br /&gt;
* [[GNS3: Simulasi Cisco]]&lt;br /&gt;
* [[GNS3: Simulasi Mikrotik]]&lt;br /&gt;
* [[GNS3: Simulasi OpenWRT]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Routing===&lt;br /&gt;
&lt;br /&gt;
* [[OpenWRT: Routing ke usb tethering]]&lt;br /&gt;
* [[OpenWRT: quagga]]&lt;br /&gt;
* [[OpenWRT: quagga bgp]]&lt;br /&gt;
* [[OpenWRT: quagga ospf]]&lt;br /&gt;
* [[OpenWRT: quagga olsr]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* [[Mikrotik: Static Routing Sedehana]]&lt;br /&gt;
* [[Mikrotik: OSPF Sederhana]]&lt;br /&gt;
* [[Mikrotik: OSPF Sederhana distribute default routing]]&lt;br /&gt;
* [[Mikrotik: OSPF multi-area network]]&lt;br /&gt;
* [[Mikrotik: BGP Sederhana tanpa filter]]&lt;br /&gt;
* [[Mikrotik: BGP Sederhana]]&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* http://www.brianlinkletter.com/tag/GNS3/&lt;br /&gt;
* http://sourceforge.net/projects/gns-3/&lt;br /&gt;
* http://www.gns3.com/&lt;br /&gt;
* http://commonerrors.blogspot.com/2014/04/cisco-3725-ios-image-free-download-for.html&lt;br /&gt;
* http://commonerrors.blogspot.com&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Cisco]]&lt;br /&gt;
* [[Juniper]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=OS:_Build_OpenWRT_x86_dari_Source&amp;diff=73533</id>
		<title>OS: Build OpenWRT x86 dari Source</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=OS:_Build_OpenWRT_x86_dari_Source&amp;diff=73533"/>
		<updated>2026-04-27T10:49:28Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Mengambil Source Code OpenWRT */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bab ini merupakan titik kulminasi dari perjalanan mahasiswa sebagai Embedded &amp;amp; Network OS Engineer. Jika pada bab sebelumnya mahasiswa menggunakan OpenWRT, maka pada bab ini mahasiswa membangun OpenWRT sendiri dari source code, sehingga benar-benar memahami OpenWRT sebagai produk rekayasa sistem operasi, bukan firmware misterius.&lt;br /&gt;
&lt;br /&gt;
Secara pedagogis, bab ini mengintegrasikan konsep:&lt;br /&gt;
* Kernel &amp;amp; user space&lt;br /&gt;
* Cross-compile &amp;amp; build system&lt;br /&gt;
* Filesystem embedded&lt;br /&gt;
* Modular OS design&lt;br /&gt;
* Reproducible system engineering&lt;br /&gt;
Dengan menyelesaikan bab ini, mahasiswa tidak lagi hanya mengkonfigurasi router, tetapi mampu merakit sistem operasi jaringan dari nol.&lt;br /&gt;
&lt;br /&gt;
==Build System OpenWRT==&lt;br /&gt;
===Konsep Akademik: OpenWRT sebagai Build-Oriented OS===&lt;br /&gt;
Berbeda dengan distribusi Linux general-purpose seperti Ubuntu atau Fedora yang berfokus pada binary package management, OpenWRT dirancang sebagai source-based embedded OS. Artinya:&lt;br /&gt;
* Sistem dibangun dari source&lt;br /&gt;
* Konfigurasi dilakukan sebelum compile&lt;br /&gt;
* Output akhir adalah image OS siap boot&lt;br /&gt;
* Seluruh sistem bersifat deterministik &amp;amp; reproducible&lt;br /&gt;
&lt;br /&gt;
Pendekatan ini sangat relevan dengan dunia:&lt;br /&gt;
* Embedded system&lt;br /&gt;
* Network appliance&lt;br /&gt;
* Edge computing&lt;br /&gt;
* Custom hardware&lt;br /&gt;
Inti filosofi OpenWRT:&lt;br /&gt;
 “You don’t install packages on the device. You design the OS before it exists.”&lt;br /&gt;
&lt;br /&gt;
==Struktur Build System OpenWRT==&lt;br /&gt;
Build system OpenWRT terdiri dari beberapa komponen utama:&lt;br /&gt;
* Toolchain → compiler, linker, libc (dibangun otomatis)&lt;br /&gt;
* Kernel Linux → disesuaikan target&lt;br /&gt;
* Base system → init, shell, networking core&lt;br /&gt;
* Package feed → aplikasi tambahan&lt;br /&gt;
* Image builder → menghasilkan firmware akhir&lt;br /&gt;
Semua dikendalikan oleh GNU Make + Kconfig-style menuconfig, mirip dengan proses compile kernel Linux yang telah dipelajari mahasiswa sebelumnya.&lt;br /&gt;
&lt;br /&gt;
==Persiapan Lingkungan Build (Ubuntu 24.04)==&lt;br /&gt;
Gunakan Ubuntu Server 24.04 sebagai build host agar konsisten dengan bab-bab sebelumnya.&lt;br /&gt;
&lt;br /&gt;
Instal dependensi wajib&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y \&lt;br /&gt;
   build-essential \&lt;br /&gt;
   clang \&lt;br /&gt;
   flex bison \&lt;br /&gt;
   gawk \&lt;br /&gt;
   gcc-multilib g++-multilib \&lt;br /&gt;
   gettext \&lt;br /&gt;
   git \&lt;br /&gt;
   libncurses-dev \&lt;br /&gt;
   libssl-dev \&lt;br /&gt;
   python3 python3-distutils \&lt;br /&gt;
   rsync unzip zlib1g-dev \&lt;br /&gt;
   file wget&lt;br /&gt;
&lt;br /&gt;
Atau&lt;br /&gt;
&lt;br /&gt;
 sudo apt install -y \&lt;br /&gt;
   libelf-dev \&lt;br /&gt;
   libffi-dev \&lt;br /&gt;
   liblzma-dev \&lt;br /&gt;
   libreadline-dev \&lt;br /&gt;
   libsqlite3-dev \&lt;br /&gt;
   libxml-parser-perl \&lt;br /&gt;
   ocaml-nox \&lt;br /&gt;
   ocaml \&lt;br /&gt;
   sharutils \&lt;br /&gt;
   subversion \&lt;br /&gt;
   swig \&lt;br /&gt;
   time \&lt;br /&gt;
   xsltproc&lt;br /&gt;
&lt;br /&gt;
Versi ringkas yang saya sarankan untuk build OpenWrt:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y \&lt;br /&gt;
   build-essential clang flex bison gawk \&lt;br /&gt;
   gcc-multilib g++-multilib \&lt;br /&gt;
   gettext git \&lt;br /&gt;
   libncurses-dev libssl-dev libelf-dev \&lt;br /&gt;
   python3 python3-dev python3-setuptools python3-venv \&lt;br /&gt;
   rsync unzip zlib1g-dev file wget \&lt;br /&gt;
   libxml-parser-perl xsltproc swig time \&lt;br /&gt;
   subversion&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Catatan penting akademik:&lt;br /&gt;
* Tidak ada proprietary compiler&lt;br /&gt;
* Toolchain akan dibangun otomatis oleh OpenWRT&lt;br /&gt;
* Lingkungan ini reproducible di semua VM mahasiswa&lt;br /&gt;
&lt;br /&gt;
==Mengambil Source Code OpenWRT==&lt;br /&gt;
Gunakan repositori resmi OpenWRT.&lt;br /&gt;
Pakai user biasa, bukan root&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 git clone https://github.com/openwrt/openwrt.git&lt;br /&gt;
 cd openwrt&lt;br /&gt;
&lt;br /&gt;
Pilih branch stabil (contoh rilis 25.12):&lt;br /&gt;
 git checkout openwrt-25.12&lt;br /&gt;
&lt;br /&gt;
Verifikasi:&lt;br /&gt;
 git branch&lt;br /&gt;
&lt;br /&gt;
==Update &amp;amp; Install Feed Package==&lt;br /&gt;
Feed adalah koleksi paket modular OpenWRT.&lt;br /&gt;
 ./scripts/feeds update -a&lt;br /&gt;
 ./scripts/feeds install -a&lt;br /&gt;
Ini setara dengan:&lt;br /&gt;
 apt update&lt;br /&gt;
 apt install&lt;br /&gt;
Namun terjadi sebelum OS dibangun, bukan setelah OS berjalan.&lt;br /&gt;
&lt;br /&gt;
==Package Selection==&lt;br /&gt;
===Konsep Akademik: OS Modular &amp;amp; Minimalism===&lt;br /&gt;
OpenWRT mengajarkan prinsip OS minimal:&lt;br /&gt;
* Hanya komponen yang benar-benar dibutuhkan&lt;br /&gt;
* Tidak ada bloat&lt;br /&gt;
* Resource-aware (RAM &amp;amp; storage kecil)&lt;br /&gt;
Inilah perbedaan fundamental dengan Linux desktop.&lt;br /&gt;
&lt;br /&gt;
===Menuconfig: Otak dari Build System===&lt;br /&gt;
Jalankan:&lt;br /&gt;
 make menuconfig&lt;br /&gt;
Mahasiswa akan melihat antarmuka konfigurasi berbasis ncurses.&lt;br /&gt;
&lt;br /&gt;
===Target Selection (x86)===&lt;br /&gt;
Pilih:&lt;br /&gt;
 Target System  ---&amp;gt; x86&lt;br /&gt;
 Subtarget      ---&amp;gt; x86_64&lt;br /&gt;
 Target Profile ---&amp;gt; Generic&lt;br /&gt;
Makna akademik:&lt;br /&gt;
* OpenWRT tidak “satu OS untuk semua”&lt;br /&gt;
* Target menentukan kernel config, driver, dan filesystem&lt;br /&gt;
&lt;br /&gt;
===Pemilihan Kernel &amp;amp; Base System===&lt;br /&gt;
Disarankan default kernel untuk pembelajaran awal.&lt;br /&gt;
&lt;br /&gt;
Aktifkan komponen dasar:&lt;br /&gt;
* BusyBox&lt;br /&gt;
* procd&lt;br /&gt;
* netifd&lt;br /&gt;
* firewall4 (nftables)&lt;br /&gt;
Ini adalah core networking OS.&lt;br /&gt;
&lt;br /&gt;
===Pemilihan Package Penting (Contoh Realistis)===&lt;br /&gt;
Contoh paket edukatif &amp;amp; praktis:&lt;br /&gt;
&lt;br /&gt;
Networking:&lt;br /&gt;
* ip-full&lt;br /&gt;
* tcpdump&lt;br /&gt;
* iperf3&lt;br /&gt;
Management:&lt;br /&gt;
* luci (web UI, opsional)&lt;br /&gt;
Routing (untuk bab lanjutan):&lt;br /&gt;
* olsrd&lt;br /&gt;
* batman-adv&lt;br /&gt;
Mahasiswa belajar bahwa setiap centang = konsekuensi ukuran &amp;amp; resource.&lt;br /&gt;
&lt;br /&gt;
==Image Generation==&lt;br /&gt;
===Konsep Akademik: Image sebagai Produk Akhir OS===&lt;br /&gt;
Pada OpenWRT, hasil compile bukan .deb atau .rpm, melainkan:&lt;br /&gt;
 *.img.gz&lt;br /&gt;
 *.vmdk&lt;br /&gt;
 *.ext4&lt;br /&gt;
Ini adalah OS image utuh, siap:&lt;br /&gt;
* Di-boot&lt;br /&gt;
* Di-flash&lt;br /&gt;
* Di-deploy&lt;br /&gt;
&lt;br /&gt;
===Proses Build Image===&lt;br /&gt;
Mulai proses compile:&lt;br /&gt;
 make -j$(nproc)&lt;br /&gt;
Waktu:&lt;br /&gt;
 30–90 menit (tergantung CPU &amp;amp; RAM VM)&lt;br /&gt;
Nilai pedagogis penting:&lt;br /&gt;
* Mahasiswa melihat toolchain dibangun&lt;br /&gt;
* Kernel dikompilasi&lt;br /&gt;
* Root filesystem dirakit&lt;br /&gt;
* Image di generate otomatis&lt;br /&gt;
&lt;br /&gt;
===Lokasi Hasil Build===&lt;br /&gt;
Setelah sukses:&lt;br /&gt;
 ls bin/targets/x86/64/&lt;br /&gt;
Contoh output:&lt;br /&gt;
 openwrt-23.05-x86-64-generic-ext4-combined.img.gz&lt;br /&gt;
&lt;br /&gt;
===Menjalankan Image di VirtualBox===&lt;br /&gt;
Ekstrak image:&lt;br /&gt;
 gunzip openwrt-23.05-x86-64-generic-ext4-combined.img.gz&lt;br /&gt;
Konversi ke VDI:&lt;br /&gt;
 VBoxManage convertfromraw \&lt;br /&gt;
   openwrt-23.05-x86-64-generic-ext4-combined.img \&lt;br /&gt;
   OpenWRT-custom.vdi \&lt;br /&gt;
   --format VDI&lt;br /&gt;
Gunakan OpenWRT-custom.vdi sebagai disk VM.&lt;br /&gt;
&lt;br /&gt;
===Validasi Sistem===&lt;br /&gt;
Login:&lt;br /&gt;
 login: root&lt;br /&gt;
Cek sistem:&lt;br /&gt;
 uname -a&lt;br /&gt;
 cat /etc/openwrt_release&lt;br /&gt;
 ip addr&lt;br /&gt;
Mahasiswa kini booting OS hasil rakitan sendiri.&lt;br /&gt;
&lt;br /&gt;
==Refleksi Akademik (OBE-Centric)==&lt;br /&gt;
Setelah menyelesaikan bab ini, mahasiswa mampu secara nyata:&lt;br /&gt;
* ✅ Membangun OS embedded dari source&lt;br /&gt;
* ✅ Memahami hubungan target ↔ kernel ↔ filesystem&lt;br /&gt;
* ✅ Mendesain OS sebelum ia berjalan&lt;br /&gt;
* ✅ Membedakan general-purpose OS vs network OS&lt;br /&gt;
* ✅ Berpikir sebagai system builder&lt;br /&gt;
&lt;br /&gt;
==Challenge Mandiri (Fun &amp;amp; Menantang)==&lt;br /&gt;
* Tambahkan tcpdump, rebuild image, uji sniffing&lt;br /&gt;
* Bandingkan image dengan &amp;amp; tanpa luci&lt;br /&gt;
* Aktifkan olsrd, siapkan untuk bab mesh network&lt;br /&gt;
* Ukur ukuran image sebelum &amp;amp; sesudah optimasi&lt;br /&gt;
&lt;br /&gt;
==Penutup==&lt;br /&gt;
Jika mahasiswa berhasil menyelesaikan bab ini, maka satu hal jelas:&lt;br /&gt;
* Ia tidak lagi “memakai OpenWRT”.&lt;br /&gt;
* Ia adalah orang yang membuat OpenWRT.&lt;br /&gt;
Bab berikutnya akan membawa OS hasil rakitan ini ke dunia nyata jaringan:&lt;br /&gt;
* routing, firewall, dan mesh network.&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Sistem operasi]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=OS:_Build_OpenWRT_x86_dari_Source&amp;diff=73532</id>
		<title>OS: Build OpenWRT x86 dari Source</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=OS:_Build_OpenWRT_x86_dari_Source&amp;diff=73532"/>
		<updated>2026-04-27T10:47:24Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Persiapan Lingkungan Build (Ubuntu 24.04) */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bab ini merupakan titik kulminasi dari perjalanan mahasiswa sebagai Embedded &amp;amp; Network OS Engineer. Jika pada bab sebelumnya mahasiswa menggunakan OpenWRT, maka pada bab ini mahasiswa membangun OpenWRT sendiri dari source code, sehingga benar-benar memahami OpenWRT sebagai produk rekayasa sistem operasi, bukan firmware misterius.&lt;br /&gt;
&lt;br /&gt;
Secara pedagogis, bab ini mengintegrasikan konsep:&lt;br /&gt;
* Kernel &amp;amp; user space&lt;br /&gt;
* Cross-compile &amp;amp; build system&lt;br /&gt;
* Filesystem embedded&lt;br /&gt;
* Modular OS design&lt;br /&gt;
* Reproducible system engineering&lt;br /&gt;
Dengan menyelesaikan bab ini, mahasiswa tidak lagi hanya mengkonfigurasi router, tetapi mampu merakit sistem operasi jaringan dari nol.&lt;br /&gt;
&lt;br /&gt;
==Build System OpenWRT==&lt;br /&gt;
===Konsep Akademik: OpenWRT sebagai Build-Oriented OS===&lt;br /&gt;
Berbeda dengan distribusi Linux general-purpose seperti Ubuntu atau Fedora yang berfokus pada binary package management, OpenWRT dirancang sebagai source-based embedded OS. Artinya:&lt;br /&gt;
* Sistem dibangun dari source&lt;br /&gt;
* Konfigurasi dilakukan sebelum compile&lt;br /&gt;
* Output akhir adalah image OS siap boot&lt;br /&gt;
* Seluruh sistem bersifat deterministik &amp;amp; reproducible&lt;br /&gt;
&lt;br /&gt;
Pendekatan ini sangat relevan dengan dunia:&lt;br /&gt;
* Embedded system&lt;br /&gt;
* Network appliance&lt;br /&gt;
* Edge computing&lt;br /&gt;
* Custom hardware&lt;br /&gt;
Inti filosofi OpenWRT:&lt;br /&gt;
 “You don’t install packages on the device. You design the OS before it exists.”&lt;br /&gt;
&lt;br /&gt;
==Struktur Build System OpenWRT==&lt;br /&gt;
Build system OpenWRT terdiri dari beberapa komponen utama:&lt;br /&gt;
* Toolchain → compiler, linker, libc (dibangun otomatis)&lt;br /&gt;
* Kernel Linux → disesuaikan target&lt;br /&gt;
* Base system → init, shell, networking core&lt;br /&gt;
* Package feed → aplikasi tambahan&lt;br /&gt;
* Image builder → menghasilkan firmware akhir&lt;br /&gt;
Semua dikendalikan oleh GNU Make + Kconfig-style menuconfig, mirip dengan proses compile kernel Linux yang telah dipelajari mahasiswa sebelumnya.&lt;br /&gt;
&lt;br /&gt;
==Persiapan Lingkungan Build (Ubuntu 24.04)==&lt;br /&gt;
Gunakan Ubuntu Server 24.04 sebagai build host agar konsisten dengan bab-bab sebelumnya.&lt;br /&gt;
&lt;br /&gt;
Instal dependensi wajib&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y \&lt;br /&gt;
   build-essential \&lt;br /&gt;
   clang \&lt;br /&gt;
   flex bison \&lt;br /&gt;
   gawk \&lt;br /&gt;
   gcc-multilib g++-multilib \&lt;br /&gt;
   gettext \&lt;br /&gt;
   git \&lt;br /&gt;
   libncurses-dev \&lt;br /&gt;
   libssl-dev \&lt;br /&gt;
   python3 python3-distutils \&lt;br /&gt;
   rsync unzip zlib1g-dev \&lt;br /&gt;
   file wget&lt;br /&gt;
&lt;br /&gt;
Atau&lt;br /&gt;
&lt;br /&gt;
 sudo apt install -y \&lt;br /&gt;
   libelf-dev \&lt;br /&gt;
   libffi-dev \&lt;br /&gt;
   liblzma-dev \&lt;br /&gt;
   libreadline-dev \&lt;br /&gt;
   libsqlite3-dev \&lt;br /&gt;
   libxml-parser-perl \&lt;br /&gt;
   ocaml-nox \&lt;br /&gt;
   ocaml \&lt;br /&gt;
   sharutils \&lt;br /&gt;
   subversion \&lt;br /&gt;
   swig \&lt;br /&gt;
   time \&lt;br /&gt;
   xsltproc&lt;br /&gt;
&lt;br /&gt;
Versi ringkas yang saya sarankan untuk build OpenWrt:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y \&lt;br /&gt;
   build-essential clang flex bison gawk \&lt;br /&gt;
   gcc-multilib g++-multilib \&lt;br /&gt;
   gettext git \&lt;br /&gt;
   libncurses-dev libssl-dev libelf-dev \&lt;br /&gt;
   python3 python3-dev python3-setuptools python3-venv \&lt;br /&gt;
   rsync unzip zlib1g-dev file wget \&lt;br /&gt;
   libxml-parser-perl xsltproc swig time \&lt;br /&gt;
   subversion&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Catatan penting akademik:&lt;br /&gt;
* Tidak ada proprietary compiler&lt;br /&gt;
* Toolchain akan dibangun otomatis oleh OpenWRT&lt;br /&gt;
* Lingkungan ini reproducible di semua VM mahasiswa&lt;br /&gt;
&lt;br /&gt;
==Mengambil Source Code OpenWRT==&lt;br /&gt;
Gunakan repositori resmi OpenWRT.&lt;br /&gt;
 cd ~&lt;br /&gt;
 git clone https://github.com/openwrt/openwrt.git&lt;br /&gt;
 cd openwrt&lt;br /&gt;
&lt;br /&gt;
Pilih branch stabil (contoh rilis 23.05):&lt;br /&gt;
 git checkout openwrt-23.05&lt;br /&gt;
&lt;br /&gt;
Verifikasi:&lt;br /&gt;
 git branch&lt;br /&gt;
&lt;br /&gt;
==Update &amp;amp; Install Feed Package==&lt;br /&gt;
Feed adalah koleksi paket modular OpenWRT.&lt;br /&gt;
 ./scripts/feeds update -a&lt;br /&gt;
 ./scripts/feeds install -a&lt;br /&gt;
Ini setara dengan:&lt;br /&gt;
 apt update&lt;br /&gt;
 apt install&lt;br /&gt;
Namun terjadi sebelum OS dibangun, bukan setelah OS berjalan.&lt;br /&gt;
&lt;br /&gt;
==Package Selection==&lt;br /&gt;
===Konsep Akademik: OS Modular &amp;amp; Minimalism===&lt;br /&gt;
OpenWRT mengajarkan prinsip OS minimal:&lt;br /&gt;
* Hanya komponen yang benar-benar dibutuhkan&lt;br /&gt;
* Tidak ada bloat&lt;br /&gt;
* Resource-aware (RAM &amp;amp; storage kecil)&lt;br /&gt;
Inilah perbedaan fundamental dengan Linux desktop.&lt;br /&gt;
&lt;br /&gt;
===Menuconfig: Otak dari Build System===&lt;br /&gt;
Jalankan:&lt;br /&gt;
 make menuconfig&lt;br /&gt;
Mahasiswa akan melihat antarmuka konfigurasi berbasis ncurses.&lt;br /&gt;
&lt;br /&gt;
===Target Selection (x86)===&lt;br /&gt;
Pilih:&lt;br /&gt;
 Target System  ---&amp;gt; x86&lt;br /&gt;
 Subtarget      ---&amp;gt; x86_64&lt;br /&gt;
 Target Profile ---&amp;gt; Generic&lt;br /&gt;
Makna akademik:&lt;br /&gt;
* OpenWRT tidak “satu OS untuk semua”&lt;br /&gt;
* Target menentukan kernel config, driver, dan filesystem&lt;br /&gt;
&lt;br /&gt;
===Pemilihan Kernel &amp;amp; Base System===&lt;br /&gt;
Disarankan default kernel untuk pembelajaran awal.&lt;br /&gt;
&lt;br /&gt;
Aktifkan komponen dasar:&lt;br /&gt;
* BusyBox&lt;br /&gt;
* procd&lt;br /&gt;
* netifd&lt;br /&gt;
* firewall4 (nftables)&lt;br /&gt;
Ini adalah core networking OS.&lt;br /&gt;
&lt;br /&gt;
===Pemilihan Package Penting (Contoh Realistis)===&lt;br /&gt;
Contoh paket edukatif &amp;amp; praktis:&lt;br /&gt;
&lt;br /&gt;
Networking:&lt;br /&gt;
* ip-full&lt;br /&gt;
* tcpdump&lt;br /&gt;
* iperf3&lt;br /&gt;
Management:&lt;br /&gt;
* luci (web UI, opsional)&lt;br /&gt;
Routing (untuk bab lanjutan):&lt;br /&gt;
* olsrd&lt;br /&gt;
* batman-adv&lt;br /&gt;
Mahasiswa belajar bahwa setiap centang = konsekuensi ukuran &amp;amp; resource.&lt;br /&gt;
&lt;br /&gt;
==Image Generation==&lt;br /&gt;
===Konsep Akademik: Image sebagai Produk Akhir OS===&lt;br /&gt;
Pada OpenWRT, hasil compile bukan .deb atau .rpm, melainkan:&lt;br /&gt;
 *.img.gz&lt;br /&gt;
 *.vmdk&lt;br /&gt;
 *.ext4&lt;br /&gt;
Ini adalah OS image utuh, siap:&lt;br /&gt;
* Di-boot&lt;br /&gt;
* Di-flash&lt;br /&gt;
* Di-deploy&lt;br /&gt;
&lt;br /&gt;
===Proses Build Image===&lt;br /&gt;
Mulai proses compile:&lt;br /&gt;
 make -j$(nproc)&lt;br /&gt;
Waktu:&lt;br /&gt;
 30–90 menit (tergantung CPU &amp;amp; RAM VM)&lt;br /&gt;
Nilai pedagogis penting:&lt;br /&gt;
* Mahasiswa melihat toolchain dibangun&lt;br /&gt;
* Kernel dikompilasi&lt;br /&gt;
* Root filesystem dirakit&lt;br /&gt;
* Image di generate otomatis&lt;br /&gt;
&lt;br /&gt;
===Lokasi Hasil Build===&lt;br /&gt;
Setelah sukses:&lt;br /&gt;
 ls bin/targets/x86/64/&lt;br /&gt;
Contoh output:&lt;br /&gt;
 openwrt-23.05-x86-64-generic-ext4-combined.img.gz&lt;br /&gt;
&lt;br /&gt;
===Menjalankan Image di VirtualBox===&lt;br /&gt;
Ekstrak image:&lt;br /&gt;
 gunzip openwrt-23.05-x86-64-generic-ext4-combined.img.gz&lt;br /&gt;
Konversi ke VDI:&lt;br /&gt;
 VBoxManage convertfromraw \&lt;br /&gt;
   openwrt-23.05-x86-64-generic-ext4-combined.img \&lt;br /&gt;
   OpenWRT-custom.vdi \&lt;br /&gt;
   --format VDI&lt;br /&gt;
Gunakan OpenWRT-custom.vdi sebagai disk VM.&lt;br /&gt;
&lt;br /&gt;
===Validasi Sistem===&lt;br /&gt;
Login:&lt;br /&gt;
 login: root&lt;br /&gt;
Cek sistem:&lt;br /&gt;
 uname -a&lt;br /&gt;
 cat /etc/openwrt_release&lt;br /&gt;
 ip addr&lt;br /&gt;
Mahasiswa kini booting OS hasil rakitan sendiri.&lt;br /&gt;
&lt;br /&gt;
==Refleksi Akademik (OBE-Centric)==&lt;br /&gt;
Setelah menyelesaikan bab ini, mahasiswa mampu secara nyata:&lt;br /&gt;
* ✅ Membangun OS embedded dari source&lt;br /&gt;
* ✅ Memahami hubungan target ↔ kernel ↔ filesystem&lt;br /&gt;
* ✅ Mendesain OS sebelum ia berjalan&lt;br /&gt;
* ✅ Membedakan general-purpose OS vs network OS&lt;br /&gt;
* ✅ Berpikir sebagai system builder&lt;br /&gt;
&lt;br /&gt;
==Challenge Mandiri (Fun &amp;amp; Menantang)==&lt;br /&gt;
* Tambahkan tcpdump, rebuild image, uji sniffing&lt;br /&gt;
* Bandingkan image dengan &amp;amp; tanpa luci&lt;br /&gt;
* Aktifkan olsrd, siapkan untuk bab mesh network&lt;br /&gt;
* Ukur ukuran image sebelum &amp;amp; sesudah optimasi&lt;br /&gt;
&lt;br /&gt;
==Penutup==&lt;br /&gt;
Jika mahasiswa berhasil menyelesaikan bab ini, maka satu hal jelas:&lt;br /&gt;
* Ia tidak lagi “memakai OpenWRT”.&lt;br /&gt;
* Ia adalah orang yang membuat OpenWRT.&lt;br /&gt;
Bab berikutnya akan membawa OS hasil rakitan ini ke dunia nyata jaringan:&lt;br /&gt;
* routing, firewall, dan mesh network.&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Sistem operasi]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=OS:_Compile_Kernel_Linux_Ubuntu_24.04&amp;diff=73531</id>
		<title>OS: Compile Kernel Linux Ubuntu 24.04</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=OS:_Compile_Kernel_Linux_Ubuntu_24.04&amp;diff=73531"/>
		<updated>2026-04-27T09:42:22Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* A. Kernel resmi dari kernel.org (disarankan untuk belajar) */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Mengapa Mahasiswa Perlu Compile Kernel Sendiri?==&lt;br /&gt;
Pada kebanyakan distribusi Linux modern, termasuk Ubuntu 24.04, kernel disediakan dalam bentuk precompiled binary. Pendekatan ini memang praktis, namun menyembunyikan banyak konsep inti sistem operasi. Dengan melakukan compile kernel sendiri, mahasiswa diajak untuk membongkar “mesin utama” sistem operasi, memahami bagaimana kernel dibangun, dikonfigurasi, dan dioptimalkan sesuai kebutuhan sistem.&lt;br /&gt;
&lt;br /&gt;
Secara pedagogis, praktik ini sejalan dengan filosofi yang ditekankan oleh Onno W. Purbo, bahwa sistem operasi bukanlah “kotak hitam”, melainkan karya manusia yang dapat dipelajari, dimodifikasi, dan dibuat ulang oleh mahasiswa Indonesia .&lt;br /&gt;
&lt;br /&gt;
Melalui bab ini, mahasiswa tidak hanya mengerti, tetapi mampu membangun kernel Linux sendiri.&lt;br /&gt;
&lt;br /&gt;
==Kernel Source Terbaru==&lt;br /&gt;
===Memahami Source Tree Kernel Linux===&lt;br /&gt;
Kernel Linux dikembangkan secara terbuka dan terdistribusi melalui kernel.org. Source code kernel memiliki struktur direktori yang konsisten sejak lama, sebagaimana dijelaskan pada bab Compile Kernel di buku rujukan .&lt;br /&gt;
Beberapa direktori penting:&lt;br /&gt;
 arch/ → kode spesifik arsitektur CPU (x86_64, ARM, dsb.)&lt;br /&gt;
 drivers/ → device driver (network, storage, USB, dll.)&lt;br /&gt;
 fs/ → implementasi filesystem&lt;br /&gt;
 net/ → network stack&lt;br /&gt;
 mm/ → memory management&lt;br /&gt;
 kernel/ → scheduler, process management&lt;br /&gt;
 security/ → SELinux, LSM&lt;br /&gt;
Mahasiswa tidak dituntut memahami seluruh isi, tetapi perlu memahami peta besar agar tidak “tersesat” saat konfigurasi.&lt;br /&gt;
&lt;br /&gt;
==Persiapan Lingkungan Build (Ubuntu 24.04)==&lt;br /&gt;
Langkah awal adalah memastikan sistem memiliki toolchain yang lengkap.&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y \&lt;br /&gt;
   build-essential \&lt;br /&gt;
   libncurses-dev \&lt;br /&gt;
   bison \&lt;br /&gt;
   flex \&lt;br /&gt;
   libssl-dev \&lt;br /&gt;
   libelf-dev \&lt;br /&gt;
   dwarves \&lt;br /&gt;
   bc \&lt;br /&gt;
   git&lt;br /&gt;
Penjelasan singkat:&lt;br /&gt;
 build-essential → compiler GCC &amp;amp; make&lt;br /&gt;
 libncurses-dev → antarmuka menu konfigurasi (menuconfig)&lt;br /&gt;
 libssl-dev → dukungan kriptografi kernel&lt;br /&gt;
 libelf-dev &amp;amp; dwarves → debug symbol (BTF)&lt;br /&gt;
Catatan penting: Kernel modern Ubuntu mewajibkan BTF, sehingga paket dwarves tidak boleh dilewatkan.&lt;br /&gt;
&lt;br /&gt;
==Mengambil Kernel Source==&lt;br /&gt;
Mahasiswa dapat memilih dua pendekatan:&lt;br /&gt;
&lt;br /&gt;
===A. Kernel resmi dari kernel.org (disarankan untuk belajar)===&lt;br /&gt;
 mkdir -p ~/kernel&lt;br /&gt;
 cd ~/kernel&lt;br /&gt;
 wget https://cdn.kernel.org/pub/linux/kernel/v7.x/linux-7.0.1.tar.xz&lt;br /&gt;
 tar -xvf https://cdn.kernel.org/pub/linux/kernel/v7.x/linux-7.0.1.tar.xz&lt;br /&gt;
 cd linux-7.0&lt;br /&gt;
&lt;br /&gt;
===B. Kernel Ubuntu (lebih dekat ke production Ubuntu)===&lt;br /&gt;
Biasanya digunakan pada level lanjut, sehingga opsi A cukup untuk praktikum awal.&lt;br /&gt;
&lt;br /&gt;
==Konfigurasi Kernel==&lt;br /&gt;
===Filosofi Konfigurasi Kernel===&lt;br /&gt;
Konfigurasi kernel menentukan:&lt;br /&gt;
* Fitur apa yang diaktifkan&lt;br /&gt;
* Driver apa yang disertakan&lt;br /&gt;
* Apakah driver dibangun built-in (=y) atau module (=m)&lt;br /&gt;
Dalam konteks pembelajaran, kesalahan konfigurasi bukan kegagalan, melainkan alat belajar utama.&lt;br /&gt;
&lt;br /&gt;
===Menggunakan Konfigurasi Kernel Ubuntu===&lt;br /&gt;
Agar lebih aman, kita memulai dari konfigurasi kernel Ubuntu yang sedang berjalan:&lt;br /&gt;
 cp /boot/config-$(uname -r) .config&lt;br /&gt;
Kemudian sinkronisasi dengan source kernel:&lt;br /&gt;
 make oldconfig&lt;br /&gt;
Perintah ini akan:&lt;br /&gt;
* Menyesuaikan konfigurasi lama dengan kernel baru&lt;br /&gt;
* Menanyakan opsi baru (bisa tekan Enter untuk default)&lt;br /&gt;
&lt;br /&gt;
===Menuconfig (Eksplorasi Visual)===&lt;br /&gt;
 make menuconfig&lt;br /&gt;
Di sini mahasiswa dapat bereksperimen langsung, misalnya:&lt;br /&gt;
* Mengaktifkan / menonaktifkan filesystem&lt;br /&gt;
* Mengatur scheduler&lt;br /&gt;
* Menonaktifkan driver yang tidak dibutuhkan VM&lt;br /&gt;
Contoh eksperimen aman:&lt;br /&gt;
* Nonaktifkan driver sound&lt;br /&gt;
* Aktifkan debug info&lt;br /&gt;
* Pastikan EXT4 filesystem = enabled&lt;br /&gt;
Prinsip belajar: ubah sedikit, build, boot, observasi.&lt;br /&gt;
&lt;br /&gt;
==Build &amp;amp; Install Kernel Custom==&lt;br /&gt;
===Proses Compile Kernel===&lt;br /&gt;
 make -j$(nproc)&lt;br /&gt;
Perintah ini:&lt;br /&gt;
* Menjalankan parallel build sesuai jumlah CPU&lt;br /&gt;
* Membutuhkan waktu 10–40 menit (tergantung VM)&lt;br /&gt;
Jika terjadi error, jangan panik — ini bagian dari pembelajaran.&lt;br /&gt;
&lt;br /&gt;
==Install Module &amp;amp; Kernel==&lt;br /&gt;
 sudo make modules_install&lt;br /&gt;
 sudo make install&lt;br /&gt;
Hasil utama:&lt;br /&gt;
* Kernel → /boot/vmlinuz-*&lt;br /&gt;
* Initramfs → otomatis dibuat&lt;br /&gt;
* GRUB → otomatis terupdate&lt;br /&gt;
&lt;br /&gt;
===Boot ke Kernel Baru===&lt;br /&gt;
Reboot system:&lt;br /&gt;
 sudo reboot&lt;br /&gt;
Saat boot:&lt;br /&gt;
* Masuk menu GRUB&lt;br /&gt;
* Pilih kernel versi baru&lt;br /&gt;
Verifikasi:&lt;br /&gt;
 uname -r&lt;br /&gt;
Jika versi kernel berubah → berhasil&lt;br /&gt;
&lt;br /&gt;
==Troubleshooting (Bagian Terpenting Belajar)==&lt;br /&gt;
===Kernel Tidak Muncul di GRUB===&lt;br /&gt;
Solusi:&lt;br /&gt;
 sudo update-grub&lt;br /&gt;
Gagal Boot (Black Screen / Panic)&lt;br /&gt;
Langkah penyelamatan:&lt;br /&gt;
* Pilih kernel lama di GRUB&lt;br /&gt;
* Login normal&lt;br /&gt;
* Perbaiki konfigurasi kernel&lt;br /&gt;
* Compile ulang&lt;br /&gt;
Inilah alasan kernel lama tidak boleh dihapus.&lt;br /&gt;
&lt;br /&gt;
===Error saat Compile===&lt;br /&gt;
Contoh error umum:&lt;br /&gt;
 missing BTF&lt;br /&gt;
 openssl header not found&lt;br /&gt;
 ncurses error&lt;br /&gt;
Solusi:&lt;br /&gt;
 sudo apt install dwarves libssl-dev libncurses-dev&lt;br /&gt;
&lt;br /&gt;
==Refleksi Akademik &amp;amp; OBE==&lt;br /&gt;
Setelah menyelesaikan bab ini, mahasiswa mencapai CPL penting:&lt;br /&gt;
* System Builder → mampu membangun kernel&lt;br /&gt;
* Kernel Tinkerer → memahami konfigurasi &amp;amp; dependensi&lt;br /&gt;
* Problem Solver → terbiasa menghadapi error low-level&lt;br /&gt;
Sebagaimana ditegaskan dalam buku rujukan, kepercayaan diri mahasiswa tumbuh ketika mereka menyadari bahwa kernel Linux bisa mereka bangun sendiri, bukan hanya dipakai .&lt;br /&gt;
&lt;br /&gt;
==Challenge Mandiri (Opsional &amp;amp; Fun)==&lt;br /&gt;
* Compile kernel tanpa sound driver&lt;br /&gt;
* Compile kernel khusus VM&lt;br /&gt;
* Bandingkan boot time kernel default vs custom&lt;br /&gt;
* Catat ukuran kernel sebelum &amp;amp; sesudah optimasi&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Sistem operasi]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Compile_Kernel:_di_Ubuntu_24.04&amp;diff=73530</id>
		<title>Compile Kernel: di Ubuntu 24.04</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Compile_Kernel:_di_Ubuntu_24.04&amp;diff=73530"/>
		<updated>2026-04-23T02:18:18Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Source code]] [[kernel]] (inti) [[sistem operasi]] [[Linux]] dapat di ambil secara bebas dari situs http://www.kernel.org. Proses / langkah membuat [[sistem operasi]] [[Linux]] dengan cara meng-[[compile kernel]] dapat di lakukan di [[sistem operasi]] [[linux]] yang kita operasikan dan menjalankan perintah-perintah berikut.&lt;br /&gt;
&lt;br /&gt;
Siapkan [[kernel]] package&lt;br /&gt;
&lt;br /&gt;
 apt update&lt;br /&gt;
 apt -y install libncurses-dev fakeroot wget bzip2 \&lt;br /&gt;
 kernel-wedge build-essential makedumpfile \&lt;br /&gt;
 libncurses6 libncursesw6 libssl-dev \&lt;br /&gt;
 flex bison libelf-dev&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Download source code linux, mungkin sekitar 100+ Mb butuh sekitar 20 menit-an untuk sambungan rakyat biasa :) ...&lt;br /&gt;
Copy [[source code]] [[kernel]]&lt;br /&gt;
&lt;br /&gt;
 sudo su&lt;br /&gt;
 cd /usr/src&lt;br /&gt;
 rm -Rf /usr/src/linux&lt;br /&gt;
 wget https://cdn.kernel.org/pub/linux/kernel/v7.x/linux-7.0.tar.xz&lt;br /&gt;
 tar xJf linux-7.0.tar.xz -C /usr/src&lt;br /&gt;
 ln -s /usr/src/linux-7.0 /usr/src/linux&lt;br /&gt;
&lt;br /&gt;
==Konfigurasi Kernel sebelum compile==&lt;br /&gt;
&lt;br /&gt;
Konfigurasi kernel di Linux&lt;br /&gt;
&lt;br /&gt;
 cd /usr/src/linux&lt;br /&gt;
 cp -vi /boot/config-`uname -r` ./.config&lt;br /&gt;
&lt;br /&gt;
Langkah cp /boot/config* dibutuhkan jika kita ingin konfigurasi kernel yang digunakan sama dengan konfigurasi kernel dari [[system operasi]] yang sedang kita gunakan. Kita dapat meloncati hal ini dan langsung ke make menuconfig.&lt;br /&gt;
&lt;br /&gt;
 cd /usr/src/linux&lt;br /&gt;
 make menuconfig&lt;br /&gt;
 make-kpkg clean&lt;br /&gt;
&lt;br /&gt;
Beberapa alternatif lain untuk mengkonfigurasi kernel linux adalah&lt;br /&gt;
&lt;br /&gt;
 cd /usr/src/linux&lt;br /&gt;
 make menuconfig&lt;br /&gt;
&lt;br /&gt;
atau&lt;br /&gt;
&lt;br /&gt;
 vi /usr/src/linux/.config&lt;br /&gt;
&lt;br /&gt;
===HACK===&lt;br /&gt;
&lt;br /&gt;
Tampaknya .config perlu di hack sedikit&lt;br /&gt;
&lt;br /&gt;
 CONFIG_SYSTEM_TRUSTED_KEYS=&amp;quot;debian/canonical-certs.pem&amp;quot;&lt;br /&gt;
 CONFIG_SYSTEM_REVOCATION_KEYS=&amp;quot;debian/canonical-revoked-certs.pem&amp;quot;&lt;br /&gt;
&lt;br /&gt;
ubah menjadi&lt;br /&gt;
&lt;br /&gt;
 CONFIG_SYSTEM_TRUSTED_KEYS=&amp;quot;&amp;quot;&lt;br /&gt;
 CONFIG_SYSTEM_REVOCATION_KEYS=&amp;quot;&amp;quot;&lt;br /&gt;
&lt;br /&gt;
===Catatan Untuk Driver===&lt;br /&gt;
&lt;br /&gt;
Supaya aman, semua driver di compile. Caranya&lt;br /&gt;
&lt;br /&gt;
* Saat &amp;quot;make menuconfig&amp;quot;&lt;br /&gt;
* Klik&lt;br /&gt;
&lt;br /&gt;
 General Setup &amp;gt; compile also drivers which will not load&lt;br /&gt;
&lt;br /&gt;
==Catatan Untuk Membuat Localversion==&lt;br /&gt;
&lt;br /&gt;
Saat menuconfig&lt;br /&gt;
&lt;br /&gt;
* Masuk &amp;gt; General Setting &amp;gt; Local Version&lt;br /&gt;
&lt;br /&gt;
Dalam Local Version&lt;br /&gt;
&lt;br /&gt;
* Sebaiknya tidak ada huruf besar&lt;br /&gt;
* Tidak ada spasi, _ dan character2 yang aneh&lt;br /&gt;
* hanya huruf dan angka saja.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Proses Compile==&lt;br /&gt;
&lt;br /&gt;
Cara yang lebih cepat&lt;br /&gt;
&lt;br /&gt;
 cd /usr/src/linux&lt;br /&gt;
 make all&lt;br /&gt;
&lt;br /&gt;
Kemudian install Linux:&lt;br /&gt;
&lt;br /&gt;
 # make firmware_install&lt;br /&gt;
 make modules_install&lt;br /&gt;
 make install&lt;br /&gt;
&lt;br /&gt;
Setelah di instalasi kita perlu update grub&lt;br /&gt;
&lt;br /&gt;
 update-grub&lt;br /&gt;
&lt;br /&gt;
Booting komputer dan pilih sistem operasi yang baru kita instalasi tersebut.&lt;br /&gt;
&lt;br /&gt;
==Cara Lama==&lt;br /&gt;
&lt;br /&gt;
Mungkin akan lebih mudah untuk memaksa compile semua [[source code]] melalui perintah&lt;br /&gt;
&lt;br /&gt;
 cd /usr/src/linux&lt;br /&gt;
 make all&lt;br /&gt;
&lt;br /&gt;
Pada awal compile kernel kadang kala kita harus menjawab pertanyaan konfigurasi kalau ternyata konfigurasi kernel yang kita gunakan agak berbeda dengan konfigurasi kernel yang lama.&lt;br /&gt;
&lt;br /&gt;
Proses compile kernel akan memakan waktu lumayan lama, bisa mencapai 2-3 jam atau lebih. Sabar.&lt;br /&gt;
&lt;br /&gt;
Selanjutnya, (atau tanpa &amp;quot;make all&amp;quot;) jalankan fakeroot &lt;br /&gt;
&lt;br /&gt;
 cd /usr/src/linux&lt;br /&gt;
 fakeroot make-kpkg --initrd --append-to-version=-custom kernel-image kernel-headers&lt;br /&gt;
&lt;br /&gt;
Alternatif lain, kalau tidak mau ada kata-kata &amp;quot;-custom&amp;quot; dalam versi yang dibuat bisa menggunakan&lt;br /&gt;
&lt;br /&gt;
 cd /usr/src/linux&lt;br /&gt;
 fakeroot make-kpkg --initrd kernel-image kernel-headers&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Setelah selesai fakeroot, install image &amp;amp; header kernel menggunakan perintah&lt;br /&gt;
&lt;br /&gt;
 cd /usr/src&lt;br /&gt;
 dpkg -i linux-image-4.1-custom_4.1-custom-10.00.Custom_amd64.deb&lt;br /&gt;
 dpkg -i linux-headers-4.1-custom_4.1-custom-10.00.Custom_amd64.deb&lt;br /&gt;
&lt;br /&gt;
File linux-image dan linux-headers mungkin akan berbeda. Sebaiknya lakukan dulu&lt;br /&gt;
&lt;br /&gt;
 cd /usr/src&lt;br /&gt;
 ls&lt;br /&gt;
&lt;br /&gt;
pastikan nama file linux-image dan linux-headers-nya apa ..&lt;br /&gt;
&lt;br /&gt;
==GRUB di Ubuntu 9.04 ke bawah==&lt;br /&gt;
&lt;br /&gt;
Ubah GRUB untuk menambahkan menu untuk booting&lt;br /&gt;
&lt;br /&gt;
 vi /boot/grub/menu.lst&lt;br /&gt;
&lt;br /&gt;
Pastikan ada menu untuk booting dari kernel yang baru seperti&lt;br /&gt;
&lt;br /&gt;
 title           Ubuntu 9.04, kernel 2.6.29.2-custom&lt;br /&gt;
 uuid            d0a32d6c-3176-4b92-8cac-6e75acc4348a&lt;br /&gt;
 kernel          /boot/vmlinuz-2.6.29.2-custom root=UUID=d0a32d6c-3176-4b92-8cac-6e75acc4348a ro quiet splash&lt;br /&gt;
 initrd          /boot/initrd.img-2.6.29.2-custom&lt;br /&gt;
 quiet&lt;br /&gt;
&lt;br /&gt;
 title           Ubuntu 9.04, kernel 2.6.29.2-custom (recovery mode)&lt;br /&gt;
 uuid            d0a32d6c-3176-4b92-8cac-6e75acc4348a&lt;br /&gt;
 kernel          /boot/vmlinuz-2.6.29.2-custom root=UUID=d0a32d6c-3176-4b92-8cac-6e75acc4348a ro  single&lt;br /&gt;
 initrd          /boot/initrd.img-2.6.29.2-custom&lt;br /&gt;
&lt;br /&gt;
==GRUB di Ubuntu 9.10 ke atas==&lt;br /&gt;
&lt;br /&gt;
Gunakan cara nekad&lt;br /&gt;
&lt;br /&gt;
 update-grub&lt;br /&gt;
&lt;br /&gt;
Jika perintah di atas sudah dilakukan, kita tidak perlu lagi melakukan perintah di bawah ini. Kalau mau iseng mencoba mengedit juga bisa mengubah file,&lt;br /&gt;
&lt;br /&gt;
 vi /boot/grub/grub.cfg&lt;br /&gt;
&lt;br /&gt;
Isi informasi kernel yang baru&lt;br /&gt;
&lt;br /&gt;
 ### BEGIN /etc/grub.d/40_custom ###&lt;br /&gt;
 # This file provides an easy way to add custom menu entries.  Simply type the&lt;br /&gt;
 # menu entries you want to add after this comment.  Be careful not to change&lt;br /&gt;
 # the 'exec tail' line above.&lt;br /&gt;
 &lt;br /&gt;
 menuentry &amp;quot;Ubuntu, Linux 2.6.32.3-custom&amp;quot; {&lt;br /&gt;
         recordfail=1&lt;br /&gt;
         if [ -n ${have_grubenv} ]; then save_env recordfail; fi&lt;br /&gt;
         set quiet=1&lt;br /&gt;
         insmod ext2&lt;br /&gt;
         set root=(hd0,6)&lt;br /&gt;
         search --no-floppy --fs-uuid --set e2482ccc-1480-4c25-adf8-bc77a255b3b3&lt;br /&gt;
         linux   /boot/vmlinuz-2.6.32.3-custom root=UUID=e2482ccc-1480-4c25-adf8-bc77a255b3b3 ro    crashkernel=384M-2G:64M,2G-:128M quiet splash&lt;br /&gt;
         initrd  /boot/initrd.img-2.6.32.3-custom&lt;br /&gt;
 }&lt;br /&gt;
 menuentry &amp;quot;Ubuntu, Linux 2.6.32.3-custom (recovery mode)&amp;quot; {&lt;br /&gt;
         recordfail=1&lt;br /&gt;
         if [ -n ${have_grubenv} ]; then save_env recordfail; fi&lt;br /&gt;
         insmod ext2&lt;br /&gt;
         set root=(hd0,6)&lt;br /&gt;
         search --no-floppy --fs-uuid --set e2482ccc-1480-4c25-adf8-bc77a255b3b3&lt;br /&gt;
         linux   /boot/vmlinuz-2.6.32.3-custom root=UUID=e2482ccc-1480-4c25-adf8-bc77a255b3b3 ro single&lt;br /&gt;
         initrd  /boot/initrd.img-2.6.32.3-custom&lt;br /&gt;
 }&lt;br /&gt;
 ### END /etc/grub.d/40_custom ###&lt;br /&gt;
&lt;br /&gt;
==Shutdown dan Reboot komputer==&lt;br /&gt;
&lt;br /&gt;
 shutdown -r now&lt;br /&gt;
&lt;br /&gt;
Setelah reboot &amp;amp; masuk lagi ke shell lakukan ..&lt;br /&gt;
&lt;br /&gt;
 uname -r&lt;br /&gt;
&lt;br /&gt;
akan keluar versi kernel yang anda gunakan, misalnya&lt;br /&gt;
&lt;br /&gt;
 4.5-custom&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* http://news.softpedia.com/news/How-to-Rebuild-Nvidia-Driver-s-Kernel-Module-Using-DKMS-317887.shtml&lt;br /&gt;
* http://www.linuxchix.org/content/courses/kernel_hacking/lesson2&lt;br /&gt;
* http://embedid.net/2010/06/01/linux-kernel-dari-mula-bagian-1/&lt;br /&gt;
* http://embedid.net/2010/06/01/linux-kernel-dari-mula-bagian-2/&lt;br /&gt;
* http://www.xnote.com/howto/install_linux_kernel.html&lt;br /&gt;
* http://kernelnewbies.org/KernelBuild&lt;br /&gt;
* http://kernelnewbies.org/KernelHacking&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
*  [[Compile Kernel Alternatif]]&lt;br /&gt;
* [http://www.layangan.com/asfik/writings/kompilasi-kernel.html Kompilasi kernel 2.4.x di Linux] ([http://www.layangan.com/asfik/writings/postfix-virtual.pdf pdf])&lt;br /&gt;
&lt;br /&gt;
* [[Linux]]&lt;br /&gt;
* [[Ubuntu]]&lt;br /&gt;
* [[Linux: CLI untuk Survival]]&lt;br /&gt;
* [[Sistem Operasi]]&lt;br /&gt;
* [[Linux: Instalasi Sistem Operasi]]&lt;br /&gt;
* [[Linux: Skema Partisi di Linux]]&lt;br /&gt;
* [[Kernel]]&lt;br /&gt;
* [[Compile Kernel]]&lt;br /&gt;
* [[Compile Kernel: Konfigurasi Kernel]]&lt;br /&gt;
* [[Compile Kernel: Ubuntu 16.04 - Source dari apt install]]&lt;br /&gt;
* [[Compile Kernel: Buat Kernel Headers untuk VirtualBox]]&lt;br /&gt;
* [[Kernel: Anatomi Kernel Source]]&lt;br /&gt;
* [[OS: Linux Kernel]]&lt;br /&gt;
* [[OS: Parameter Kernel Default]]&lt;br /&gt;
* [[OS: Kernel Scheduler]]&lt;br /&gt;
* [[OS: Complete Teori Tuning Kernel Scheduler]]&lt;br /&gt;
* [[OS: Complete Teori Tuning I/O Performance]]&lt;br /&gt;
* [[OS: Tuning Manajemen Memory]]&lt;br /&gt;
* [[OS: Tuning Kernel Scheduler]]&lt;br /&gt;
* [[OS: Tuning Completely Fair Queueing CFQ I/O scheduler]]&lt;br /&gt;
* [[OS: Tuning Completely Fair scheduler CFS]]&lt;br /&gt;
* [[OS: Build in Monitoring Tool]]&lt;br /&gt;
* [[Linux Benchmarking]]&lt;br /&gt;
* [[OS: Benchmarking menggunakan UnixBench]]&lt;br /&gt;
* [[OS: Benchmarking menggunakan LLCBench]]&lt;br /&gt;
* [[OS: Mengerti System Call]]&lt;br /&gt;
* [[OS: Membuat Kernel Modul]]&lt;br /&gt;
* [[OS: Android - Download]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Moodle:_Ubuntu_24.04_-_Instalasi_Moodle,_Apache2,_MariaDB,_PHP&amp;diff=73529</id>
		<title>Moodle: Ubuntu 24.04 - Instalasi Moodle, Apache2, MariaDB, PHP</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Moodle:_Ubuntu_24.04_-_Instalasi_Moodle,_Apache2,_MariaDB,_PHP&amp;diff=73529"/>
		<updated>2026-04-20T10:40:38Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Install Moodle */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Update Repo==&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt -y install software-properties-common ca-certificates lsb-release apt-transport-https net-tools&lt;br /&gt;
&lt;br /&gt;
==Install Apache2==&lt;br /&gt;
&lt;br /&gt;
 apt -y install apache2&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Install PHP Terakhir==&lt;br /&gt;
&lt;br /&gt;
Install PHP&lt;br /&gt;
&lt;br /&gt;
 sudo su&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 apt -y install php-common php-mysql php-xml php-xmlrpc \&lt;br /&gt;
 php-curl php-gd php-imagick php-cli php-dev \&lt;br /&gt;
 php-imap php-mbstring php-opcache php-soap \&lt;br /&gt;
 php-zip php-intl php-cli \&lt;br /&gt;
 imagemagick git zip libgd-dev libapache2-mod-php \&lt;br /&gt;
 php php-common libapache2-mod-php php-cli&lt;br /&gt;
&lt;br /&gt;
Edit&lt;br /&gt;
&lt;br /&gt;
 sudo vi /etc/php/8.3/apache2/php.ini&lt;br /&gt;
 sudo vi /etc/php/8.3/cli/php.ini&lt;br /&gt;
 sudo vi /etc/php/8.3/fpm/php.ini&lt;br /&gt;
&lt;br /&gt;
 upload_max_filesize = 100M&lt;br /&gt;
 post_max_size = 48M&lt;br /&gt;
 memory_limit = 512M&lt;br /&gt;
 max_execution_time = 600&lt;br /&gt;
 max_input_vars = 5000&lt;br /&gt;
 max_input_time = 1000&lt;br /&gt;
&lt;br /&gt;
Restart PHP&lt;br /&gt;
&lt;br /&gt;
 sudo systemctl restart php8.3-fpm&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Switch ke PHP8.3&lt;br /&gt;
&lt;br /&gt;
 sudo update-alternatives --config php&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 There are 2 choices for the alternative php (providing /usr/bin/php).&lt;br /&gt;
&lt;br /&gt;
   Selection    Path                  Priority   Status&lt;br /&gt;
 ------------------------------------------------------------&lt;br /&gt;
 * 0            /usr/bin/php.default   100       auto mode&lt;br /&gt;
   1            /usr/bin/php.default   100       manual mode&lt;br /&gt;
   2            /usr/bin/php8.3        83        manual mode&lt;br /&gt;
 &lt;br /&gt;
 Press &amp;lt;enter&amp;gt; to keep the current choice[*], or type selection &lt;br /&gt;
 number: 0&lt;br /&gt;
&lt;br /&gt;
Restart apache2&lt;br /&gt;
&lt;br /&gt;
 sudo systemctl restart apache2.service&lt;br /&gt;
 sudo systemctl enable apache2.service&lt;br /&gt;
&lt;br /&gt;
Test&lt;br /&gt;
&lt;br /&gt;
 sudo vi /var/www/html/phpinfo.php&lt;br /&gt;
&lt;br /&gt;
 &amp;lt;?php phpinfo( ); ?&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Install MariaDB==&lt;br /&gt;
&lt;br /&gt;
 sudo apt -y install mariadb-server&lt;br /&gt;
&lt;br /&gt;
Restart &amp;amp; Enable&lt;br /&gt;
&lt;br /&gt;
 sudo systemctl start mariadb&lt;br /&gt;
 sudo systemctl enable mariadb&lt;br /&gt;
&lt;br /&gt;
OPTIONAL: Secure Installation&lt;br /&gt;
&lt;br /&gt;
 sudo mysql_secure_installation&lt;br /&gt;
&lt;br /&gt;
 Enter current password for root (enter for none): &lt;br /&gt;
 Set root password? [Y/n] y&lt;br /&gt;
 New password: &lt;br /&gt;
 Re-enter new password: &lt;br /&gt;
 Remove anonymous users? [Y/n] y&lt;br /&gt;
 Disallow root login remotely? [Y/n] y&lt;br /&gt;
 Remove test database and access to it? [Y/n] y&lt;br /&gt;
 Reload privilege tables now? [Y/n] y&lt;br /&gt;
&lt;br /&gt;
OPTIONAL: Cek &amp;amp; Test&lt;br /&gt;
&lt;br /&gt;
 sudo mysql -u root -p&lt;br /&gt;
&lt;br /&gt;
 CREATE DATABASE testdb;&lt;br /&gt;
 CREATE USER 'testuser' IDENTIFIED BY 'password';&lt;br /&gt;
 GRANT ALL PRIVILEGES ON testdb.* TO 'testuser';&lt;br /&gt;
 FLUSH PRIVILEGES;&lt;br /&gt;
 exit&lt;br /&gt;
&lt;br /&gt;
==Install Moodle==&lt;br /&gt;
&lt;br /&gt;
==Setup Database==&lt;br /&gt;
&lt;br /&gt;
===Kalau Operasional===&lt;br /&gt;
&lt;br /&gt;
Setup root password (jika di perlukan saja)&lt;br /&gt;
&lt;br /&gt;
 mysql&lt;br /&gt;
 mysql&amp;gt; SET PASSWORD FOR root@localhost=PASSWORD('password');&lt;br /&gt;
&lt;br /&gt;
Setup database operasonal dengan username &amp;amp; password akses&lt;br /&gt;
&lt;br /&gt;
 # mysql -u root -p&lt;br /&gt;
 Enter password:&lt;br /&gt;
 create database moodle;&lt;br /&gt;
 ALTER DATABASE moodle charset=utf8mb4;&lt;br /&gt;
 ALTER DATABASE moodle CHARACTER SET = utf8mb4 COLLATE = utf8mb4_unicode_ci;&lt;br /&gt;
 grant INSERT,SELECT on moodle.* to root@localhost;&lt;br /&gt;
 grant CREATE, INSERT, SELECT, DELETE, UPDATE on moodle.* to usermoodle@localhost identified by &amp;quot;moodlepassword&amp;quot;;&lt;br /&gt;
 grant CREATE, INSERT, SELECT, DELETE, UPDATE on moodle.* to usermoodle identified by &amp;quot;moodlepassword&amp;quot;;&lt;br /&gt;
 exit&lt;br /&gt;
&lt;br /&gt;
===Kalau hanya Latihan===&lt;br /&gt;
&lt;br /&gt;
Password root 123456&lt;br /&gt;
&lt;br /&gt;
 # mysql -u root -p123456&lt;br /&gt;
&lt;br /&gt;
 create database moodle;&lt;br /&gt;
 ALTER DATABASE moodle charset=utf8mb4;&lt;br /&gt;
 ALTER DATABASE moodle CHARACTER SET = utf8mb4 COLLATE = utf8mb4_unicode_ci;&lt;br /&gt;
 grant ALL on moodle.* to root@localhost;&lt;br /&gt;
 grant ALL on moodle.* to moodle@localhost identified by &amp;quot;moodle&amp;quot;;&lt;br /&gt;
 grant ALL on moodle.* to moodle identified by &amp;quot;moodle&amp;quot;;&lt;br /&gt;
 exit&lt;br /&gt;
&lt;br /&gt;
 service mysqld start&lt;br /&gt;
 service mysqld restart&lt;br /&gt;
&lt;br /&gt;
==Instalasi CERT==&lt;br /&gt;
&lt;br /&gt;
 sudo apt install certbot python3-certbot-apache&lt;br /&gt;
 sudo certbot --apache -d lms.onnocenter.or.id&lt;br /&gt;
 sudo certbot renew --dry-run&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Siapkan folder /var/moodledata/==&lt;br /&gt;
&lt;br /&gt;
Download language pack lewat web&lt;br /&gt;
&lt;br /&gt;
 https://download.moodle.org/download.php/langpack/4.0/id.zip&lt;br /&gt;
&lt;br /&gt;
transfer menggunakan scp ke&lt;br /&gt;
&lt;br /&gt;
 /usr/local/src&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
Install language pack&lt;br /&gt;
&lt;br /&gt;
 cd /usr/local/src&lt;br /&gt;
 mkdir -p /var/moodledata/lang&lt;br /&gt;
 cp id.zip /var/moodledata/lang&lt;br /&gt;
 cd /var/moodledata/lang&lt;br /&gt;
 unzip id.zip&lt;br /&gt;
 chmod -Rf 777 /var/moodledata/lang/&lt;br /&gt;
 chown -Rf www-data: /var/moodledata/lang/&lt;br /&gt;
&lt;br /&gt;
==Install Moodle==&lt;br /&gt;
&lt;br /&gt;
Download oleh manusia dari&lt;br /&gt;
&lt;br /&gt;
 https://download.moodle.org/download.php/stable404/moodle-5.1.1.tgz&lt;br /&gt;
&lt;br /&gt;
Copykan menggunakan scp ke&lt;br /&gt;
&lt;br /&gt;
 /usr/local/src&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Install&lt;br /&gt;
&lt;br /&gt;
 cd /usr/local/src&lt;br /&gt;
 cp moodle-5.2.tgz /var/www/html/&lt;br /&gt;
 cd /var/www/html/&lt;br /&gt;
 tar zxvf moodle-5.2.tgz&lt;br /&gt;
 chown -Rf www-data: /var/moodledata/&lt;br /&gt;
 chmod -Rf 777 /var/www/html/moodle	&lt;br /&gt;
 chown -Rf www-data: /var/www/html/moodle&lt;br /&gt;
&lt;br /&gt;
Lanjutkan dengan konfigurasi via web&lt;br /&gt;
&lt;br /&gt;
 http://localhost/moodle&lt;br /&gt;
 http://ip-address/moodle&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 Language       -&amp;gt; id  -&amp;gt; Selanjutnya&lt;br /&gt;
 Web Address           http://ip-address/moodle&lt;br /&gt;
 Moodle Directory      /var/www/html/moodle&lt;br /&gt;
 Data Directory        /var/moodledata/&lt;br /&gt;
 Confirm paths         -&amp;gt; Selanjutnya&lt;br /&gt;
 Choose database driver&lt;br /&gt;
 Type -&amp;gt; MySQL         -&amp;gt; Selanjutnya&lt;br /&gt;
 Database settings&lt;br /&gt;
   Improved MySQL (mariadb)&lt;br /&gt;
   Database host      localhost&lt;br /&gt;
   Database name      moodle&lt;br /&gt;
   Database user      moodle&lt;br /&gt;
   Database password  moodle&lt;br /&gt;
   Tables prefix      mdl_ &lt;br /&gt;
   '''unix socket (check)''' -&amp;gt; Selanjutnya&lt;br /&gt;
&lt;br /&gt;
 Installation      -&amp;gt; Lanjut&lt;br /&gt;
 Server checks     -&amp;gt; Selanjutnya&lt;br /&gt;
&lt;br /&gt;
 Installation&lt;br /&gt;
   Nama Pengguna&lt;br /&gt;
   Password &lt;br /&gt;
   Nama Depan&lt;br /&gt;
   Nama akhir&lt;br /&gt;
   Alamat Email&lt;br /&gt;
   Kota&lt;br /&gt;
   Pilih Negara             -&amp;gt; Perbaharui Profile&lt;br /&gt;
 &lt;br /&gt;
 Installation&lt;br /&gt;
   Nama lengkap situs&lt;br /&gt;
   Nama singkat untuk situs (mis. kata tunggal)&lt;br /&gt;
   Keterangan halaman depan -&amp;gt; Save Changes&lt;br /&gt;
&lt;br /&gt;
==Akses Moodle==&lt;br /&gt;
&lt;br /&gt;
 http://localhost/moodle/&lt;br /&gt;
 http://ip-address/moodle/&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Youtube==&lt;br /&gt;
&lt;br /&gt;
* [https://www.youtube.com/watch?v=thrLiTitbSY YOUTUBE: Instalasi web server Apache2 PHP7.4 Percona5.7]&lt;br /&gt;
* [https://www.youtube.com/watch?v=zfGd-_2L6fQ YOUTUBE: MOODLE instalasi server e-learning moodle]&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Moodle]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Mediawiki_Instalasi_di_Ubuntu_24.04&amp;diff=73528</id>
		<title>Mediawiki Instalasi di Ubuntu 24.04</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Mediawiki_Instalasi_di_Ubuntu_24.04&amp;diff=73528"/>
		<updated>2026-04-20T10:34:34Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Copy Source CMS Mediawiki */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Pertama-tama siapkan beberapa fasiltas pendukung [[MediaWiki]]&lt;br /&gt;
seperti [[MySQL Server]], [[PHP]] dll, antara lain dapat di install melalui perintah&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt-get install apache2 php php-xmlrpc php-mysql php-gd php-cli php-curl \&lt;br /&gt;
 libphp-adodb libgd-dev php-pear \&lt;br /&gt;
 php-common libapache2-mod-php php-fpm \&lt;br /&gt;
 php-bz2 php-xml imagemagick git php-mbstring \&lt;br /&gt;
 mariadb-server mariadb-client \&lt;br /&gt;
 php8.3-intl&lt;br /&gt;
 &lt;br /&gt;
 sudo a2dismod php5&lt;br /&gt;
 sudo a2dismod php7&lt;br /&gt;
 sudo a2enmod php8.3&lt;br /&gt;
 sudo a2enmod proxy_fcgi setenvif&lt;br /&gt;
 sudo a2enconf php8.3-fpm&lt;br /&gt;
&lt;br /&gt;
 sudo service apache2 stop&lt;br /&gt;
 sudo service apache2 start&lt;br /&gt;
 sudo systemctl reload apache2&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Set locale==&lt;br /&gt;
&lt;br /&gt;
 sudo locale-gen id_ID.UTF-8&lt;br /&gt;
&lt;br /&gt;
==Database==&lt;br /&gt;
&lt;br /&gt;
Siapkan&lt;br /&gt;
&lt;br /&gt;
 mysql&lt;br /&gt;
 mysql&amp;gt; SET PASSWORD FOR root@localhost=PASSWORD('password');&lt;br /&gt;
&lt;br /&gt;
Jika password Root [[MySQL]] [[database]] sudah di set maka &lt;br /&gt;
kita dapat langsung mengkonfigurasi [[MySQL]] menggunakan perintah&lt;br /&gt;
&lt;br /&gt;
 sudo su&lt;br /&gt;
 mysql&lt;br /&gt;
&lt;br /&gt;
 create database mediawiki;&lt;br /&gt;
 grant INSERT,SELECT on root.* to mediawiki@localhost;&lt;br /&gt;
 grant CREATE, INSERT, SELECT, DELETE, UPDATE, DROP, INDEX on mediawiki.* to mediawiki@localhost identified by 'mediawikipass';&lt;br /&gt;
 grant CREATE, INSERT, SELECT, DELETE, UPDATE, DROP, INDEX on mediawiki.* to mediawiki identified by 'mediawikipass';&lt;br /&gt;
 exit&lt;br /&gt;
&lt;br /&gt;
Bagi anda yang masih belajar. Asumsi root password 123456. Anda dapat juga menggunakan di bawah ini, tapi jangan digunakan di [[server]] yang operasional di [[Internet]] &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 # mysql -u root -p123456&lt;br /&gt;
&lt;br /&gt;
 create database mediawiki;&lt;br /&gt;
 grant ALL on root.* to mediawiki@localhost;&lt;br /&gt;
 grant ALL on mediawiki.* to mediawiki@localhost identified by 'mediawiki';&lt;br /&gt;
 grant ALL on mediawiki.* to mediawiki identified by 'mediawiki';&lt;br /&gt;
 exit&lt;br /&gt;
&lt;br /&gt;
==Copy Source CMS Mediawiki==&lt;br /&gt;
&lt;br /&gt;
 cd /usr/local/src&lt;br /&gt;
 wget https://releases.wikimedia.org/mediawiki/1.45/mediawiki-1.45.3.tar.gz&lt;br /&gt;
 cp mediawiki-1.45.3.tar.gz /var/www/html/&lt;br /&gt;
 cd /var/www/html/&lt;br /&gt;
 tar zxvf mediawiki-1.45.3.tar.gz&lt;br /&gt;
 mv mediawiki-1.45.3 wiki&lt;br /&gt;
 cp -Rf /var/www/html/wiki/mw-config/ /var/www/html/wiki/config&lt;br /&gt;
 chmod a+w /var/www/html/wiki/mw-config&lt;br /&gt;
 chmod a+w /var/www/html/wiki/config&lt;br /&gt;
 chmod -Rf 777 wiki&lt;br /&gt;
 chown -Rf www-data: wiki&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Jika dibutuhkan versi 1.39.x untuk migrasi database&lt;br /&gt;
&lt;br /&gt;
 cd /usr/local/src&lt;br /&gt;
 wget https://releases.wikimedia.org/mediawiki/1.39/mediawiki-1.39.17.tar.gz&lt;br /&gt;
 cp mediawiki-1.39.17.tar.gz /var/www/html/&lt;br /&gt;
 cd /var/www/html/&lt;br /&gt;
 tar zxvf mediawiki-1.39.17.tar.gz&lt;br /&gt;
 mv mediawiki-1.39.17 wiki&lt;br /&gt;
 cp -Rf /var/www/html/wiki/mw-config/ /var/www/html/wiki/config&lt;br /&gt;
 chmod a+w /var/www/html/wiki/mw-config&lt;br /&gt;
 chmod a+w /var/www/html/wiki/config&lt;br /&gt;
 chmod -Rf 777 wiki&lt;br /&gt;
 chown -Rf www-data: wiki&lt;br /&gt;
&lt;br /&gt;
==Restart Apache==&lt;br /&gt;
&lt;br /&gt;
 /etc/init.d/apache2 restart&lt;br /&gt;
&lt;br /&gt;
==Selesaikan Konfigurasi Mediawiki==&lt;br /&gt;
&lt;br /&gt;
 http://localhost/wiki&lt;br /&gt;
 http://ip-address-server/wiki&lt;br /&gt;
&lt;br /&gt;
==Versi 1.17 ke atas==&lt;br /&gt;
&lt;br /&gt;
Lakukan beberapa konfigurasi untuk [[Wiki]] yang akan kita operasikan.&lt;br /&gt;
Beberapa parameter yang perlu di set adalah,&lt;br /&gt;
&lt;br /&gt;
 Your language: id&lt;br /&gt;
 Wiki language: id -&amp;gt; lanjut&lt;br /&gt;
 Pengecekan Lingkungan &amp;gt; lanjut&lt;br /&gt;
 Pengaturan MySQL&lt;br /&gt;
 &lt;br /&gt;
   Inang basis data: localhost&lt;br /&gt;
   Nama basis data: mediawiki&lt;br /&gt;
   Prefiks tabel basis data: wiki_&lt;br /&gt;
   Nama pengguna basis data: mediawiki&lt;br /&gt;
   Kata sandi basis data: mediawiki -&amp;gt; lanjut&lt;br /&gt;
 &lt;br /&gt;
 Mesin penyimpanan: InnoDB&lt;br /&gt;
 Set karakter basis data: Biner -&amp;gt; lanjut&lt;br /&gt;
 &lt;br /&gt;
 Nama wiki:&lt;br /&gt;
 Nama Anda:&lt;br /&gt;
 Kata sandi:&lt;br /&gt;
 Kata sandi lagi:&lt;br /&gt;
 Alamat surel:&lt;br /&gt;
 Saya sudah bosan, instal saja wikinya. -&amp;gt; lanjut&lt;br /&gt;
 &lt;br /&gt;
 Instal -&amp;gt; lanjut&lt;br /&gt;
&lt;br /&gt;
==Versi &amp;lt; 1.17==&lt;br /&gt;
&lt;br /&gt;
Lakukan beberapa konfigurasi untuk [[Wiki]] yang akan kita operasikan.&lt;br /&gt;
Beberapa parameter yang perlu di set adalah,&lt;br /&gt;
&lt;br /&gt;
 Wiki Name&lt;br /&gt;
 Contact e-mail&lt;br /&gt;
 Language 	-&amp;gt; id&lt;br /&gt;
 Admin Username	-&amp;gt; admin	&lt;br /&gt;
 password	-&amp;gt;&lt;br /&gt;
 Confirm	-&amp;gt; 	&lt;br /&gt;
&lt;br /&gt;
 Database Type	-&amp;gt; mysql&lt;br /&gt;
 Database name	-&amp;gt; mediawiki&lt;br /&gt;
 DB username	-&amp;gt; mediawiki&lt;br /&gt;
 DB password	-&amp;gt; mediawiki&lt;br /&gt;
 DB pass Confirm -&amp;gt; mediawiki&lt;br /&gt;
&lt;br /&gt;
 Superuser	-&amp;gt; root&lt;br /&gt;
 Password	-&amp;gt;&lt;br /&gt;
&lt;br /&gt;
 '''Database Prefix -&amp;gt; wiki_'''&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Pastikan bahwa Prefix [[Database]] yang digunakan adalah '''wiki_'''&lt;br /&gt;
ini akan memudahkan nanti pada saat replikasi [[database]] dari [http://opensource.telkomspeedy.com/wiki SpeedyWiki]&lt;br /&gt;
&lt;br /&gt;
Setelah semua parameter selesai di konfigurasi kita dapat&lt;br /&gt;
menginstalasi [[MediaWiki]] dengan menekan tombol&lt;br /&gt;
&lt;br /&gt;
 Install MediaWiki&lt;br /&gt;
&lt;br /&gt;
Terakhir, kita perlu mengcopykan file LocalSettings.php&lt;br /&gt;
yang merupakan konfigurasi mediawiki ke folder root Wiki&lt;br /&gt;
melalui perintah&lt;br /&gt;
&lt;br /&gt;
Versi mediawiki yang baru ternyata LocalSettings.php&lt;br /&gt;
di download, maka langkah yang perlu dilakukan adalah&lt;br /&gt;
&lt;br /&gt;
 cd ~/Downloads&lt;br /&gt;
 mv LocalSettings.php /var/www/html/wiki/&lt;br /&gt;
 chmod 600 /var/www/html/wiki/LocalSettings.php&lt;br /&gt;
&lt;br /&gt;
Untuk versi lama dapat menggunakan perintah&lt;br /&gt;
&lt;br /&gt;
 cd /var/www/html/wiki/&lt;br /&gt;
 mv config/LocalSettings.php /var/www/html/wiki/&lt;br /&gt;
 chmod 600 /var/www/html/wiki/LocalSettings.php&lt;br /&gt;
&lt;br /&gt;
Selesai sudah seluruh proses konfigurasi [[MediaWiki]], [[Wiki]] dapat di akses&lt;br /&gt;
pada alamat [[Web]].&lt;br /&gt;
&lt;br /&gt;
 http://localhost/wiki&lt;br /&gt;
&lt;br /&gt;
==Untuk Mediawiki versi Baru==&lt;br /&gt;
&lt;br /&gt;
Edit&lt;br /&gt;
&lt;br /&gt;
 vi /var/www/html/wiki/LocalSettings.php&lt;br /&gt;
&lt;br /&gt;
Masukan&lt;br /&gt;
&lt;br /&gt;
 $wgDBadminuser      = mediawiki;&lt;br /&gt;
 $wgDBadminpassword  = mediawiki;&lt;br /&gt;
 ?&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Untuk Mediawiki versi lama==&lt;br /&gt;
&lt;br /&gt;
Siapkan untuk replikasi mediawiki&lt;br /&gt;
&lt;br /&gt;
 cd /var/www/html/wiki/&lt;br /&gt;
 cp AdminSettings.sample AdminSettings.php&lt;br /&gt;
 vi AdminSettings.php&lt;br /&gt;
&lt;br /&gt;
Pastikan ada isi&lt;br /&gt;
&lt;br /&gt;
 $wgDBadminuser      = 'wikiuser';&lt;br /&gt;
 $wgDBadminpassword  = 'wikipassword';&lt;br /&gt;
&lt;br /&gt;
kalau masih belajar bisa berisi&lt;br /&gt;
&lt;br /&gt;
 $wgDBadminuser      = 'mediawiki';&lt;br /&gt;
 $wgDBadminpassword  = 'mediawiki';&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Mediawiki]]&lt;br /&gt;
* [[Instalasi MediaWiki]]&lt;br /&gt;
* [[Melihat Aktifitas dan Statistik Mediawiki]]&lt;br /&gt;
* [[Dumping Seluruh Database MediaWiki]]&lt;br /&gt;
* [[Replikasi Database dan Image MediaWiki]]&lt;br /&gt;
* [[Membuka Fasilitas Upload di MediaWiki]]&lt;br /&gt;
* [[Mengaktifkan Math di MediaWiki]]&lt;br /&gt;
* [[Mengubah Logo di MediaWiki]]&lt;br /&gt;
* [[Proteksi agar hanya registered member yang dapat menulis]]&lt;br /&gt;
* [[Proteksi Spammer Menggunakan reCAPTHCA]]&lt;br /&gt;
* [[MediaWiki - Proteksi Spammer Menggunakan ConfirmEdit]]&lt;br /&gt;
* [[MediaWiki - Proteksi Spammer Menggunakan wgSpamRegex]]&lt;br /&gt;
* [[Script Re-Install SpeedyWiki]] '''*PENTING*'''&lt;br /&gt;
* [[Script Re-Install SpeedyWiki di Ubuntu 10.04]] '''*PENTING*'''&lt;br /&gt;
* [[Update SpeedyWiki lokal secara automatis]]&lt;br /&gt;
* [[Update database SpeedyWiki lokal secara automatis tanpa update Image]]&lt;br /&gt;
* [[Instalasi MediaWiki]] Cara menginstalasi [[MediaWiki]]&lt;br /&gt;
* [[Mediawiki Mereset Isi Database Mediawiki]]&lt;br /&gt;
* [[Mediawiki ganti IP address server]]&lt;br /&gt;
* [[Linux Howto]]&lt;br /&gt;
&lt;br /&gt;
[[Category: Linux]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Python:_Nulis_nama_di_PDF_Sertifikat&amp;diff=73527</id>
		<title>Python: Nulis nama di PDF Sertifikat</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Python:_Nulis_nama_di_PDF_Sertifikat&amp;diff=73527"/>
		<updated>2026-04-20T06:16:16Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;Bisa. Cara paling aman biasanya begini:  * siapkan '''1 file template sertifikat PDF''' * siapkan '''1 file daftar nama''' * jalankan script untuk membuat '''1 PDF per nama'''...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bisa. Cara paling aman biasanya begini:&lt;br /&gt;
&lt;br /&gt;
* siapkan '''1 file template sertifikat PDF'''&lt;br /&gt;
* siapkan '''1 file daftar nama'''&lt;br /&gt;
* jalankan script untuk membuat '''1 PDF per nama'''&lt;br /&gt;
&lt;br /&gt;
Di bawah ini script Python yang umum dipakai. Script ini akan:&lt;br /&gt;
&lt;br /&gt;
* membaca nama dari file `nama.txt`&lt;br /&gt;
* menaruh nama di posisi tertentu pada template PDF&lt;br /&gt;
* menghasilkan file baru seperti `sertifikat_Andi.pdf`, `sertifikat_Budi.pdf`, dst.&lt;br /&gt;
&lt;br /&gt;
 import os&lt;br /&gt;
 import re&lt;br /&gt;
 import io&lt;br /&gt;
 from pathlib import Path&lt;br /&gt;
 &lt;br /&gt;
 from pypdf import PdfReader, PdfWriter&lt;br /&gt;
 from reportlab.pdfgen import canvas&lt;br /&gt;
 from reportlab.pdfbase.ttfonts import TTFont&lt;br /&gt;
 from reportlab.pdfbase import pdfmetrics&lt;br /&gt;
 &lt;br /&gt;
 # =========================&lt;br /&gt;
 # KONFIGURASI&lt;br /&gt;
 # =========================&lt;br /&gt;
 TEMPLATE_PDF = &amp;quot;template_sertifikat.pdf&amp;quot;&lt;br /&gt;
 DAFTAR_NAMA = &amp;quot;nama.txt&amp;quot;&lt;br /&gt;
 OUTPUT_DIR = &amp;quot;output_sertifikat&amp;quot;&lt;br /&gt;
&lt;br /&gt;
 # Posisi nama pada halaman PDF&lt;br /&gt;
 # Satuan: points&lt;br /&gt;
 # Titik (0,0) ada di kiri bawah halaman&lt;br /&gt;
 NAMA_X = 297   # contoh tengah halaman A4 landscape&lt;br /&gt;
 NAMA_Y = 250&lt;br /&gt;
 &lt;br /&gt;
 FONT_NAME = &amp;quot;Helvetica-Bold&amp;quot;&lt;br /&gt;
 FONT_SIZE = 28&lt;br /&gt;
 TEXT_COLOR = (0, 0, 0)  # RGB 0-1 akan di-set di bawah&lt;br /&gt;
 &lt;br /&gt;
 # Jika ingin pakai font TTF sendiri, uncomment ini:&lt;br /&gt;
 # FONT_TTF_PATH = &amp;quot;Montserrat-Bold.ttf&amp;quot;&lt;br /&gt;
 # pdfmetrics.registerFont(TTFont(&amp;quot;CustomFont&amp;quot;, FONT_TTF_PATH))&lt;br /&gt;
 # FONT_NAME = &amp;quot;CustomFont&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 # =========================&lt;br /&gt;
 # FUNGSI BANTUAN&lt;br /&gt;
 # =========================&lt;br /&gt;
 def safe_filename(text: str) -&amp;gt; str:&lt;br /&gt;
     text = text.strip()&lt;br /&gt;
     text = re.sub(r&amp;quot;[^\w\s-]&amp;quot;, &amp;quot;&amp;quot;, text, flags=re.UNICODE)&lt;br /&gt;
     text = re.sub(r&amp;quot;\s+&amp;quot;, &amp;quot;_&amp;quot;, text)&lt;br /&gt;
     return text&lt;br /&gt;
 &lt;br /&gt;
 def buat_overlay(page_width, page_height, nama):&lt;br /&gt;
     packet = io.BytesIO()&lt;br /&gt;
     c = canvas.Canvas(packet, pagesize=(page_width, page_height)) &lt;br /&gt;
 &lt;br /&gt;
     c.setFont(FONT_NAME, FONT_SIZE)&lt;br /&gt;
     c.setFillColorRGB(*TEXT_COLOR) &lt;br /&gt;
 &lt;br /&gt;
     # Tulis nama dengan anchor tengah&lt;br /&gt;
     text_width = pdfmetrics.stringWidth(nama, FONT_NAME, FONT_SIZE)&lt;br /&gt;
     c.drawString(NAMA_X - (text_width / 2), NAMA_Y, nama) &lt;br /&gt;
 &lt;br /&gt;
     c.save()&lt;br /&gt;
     packet.seek(0)&lt;br /&gt;
     return PdfReader(packet)&lt;br /&gt;
 &lt;br /&gt;
 def baca_daftar_nama(path_file):&lt;br /&gt;
     with open(path_file, &amp;quot;r&amp;quot;, encoding=&amp;quot;utf-8&amp;quot;) as f:&lt;br /&gt;
         return [line.strip() for line in f if line.strip()] &lt;br /&gt;
 &lt;br /&gt;
 # =========================&lt;br /&gt;
 # PROSES UTAMA&lt;br /&gt;
 # =========================&lt;br /&gt;
 def main():&lt;br /&gt;
     os.makedirs(OUTPUT_DIR, exist_ok=True) &lt;br /&gt;
 &lt;br /&gt;
     names = baca_daftar_nama(DAFTAR_NAMA)&lt;br /&gt;
     if not names:&lt;br /&gt;
         raise ValueError(&amp;quot;File nama.txt kosong atau tidak ada nama valid.&amp;quot;)&lt;br /&gt;
 &lt;br /&gt;
     template_reader = PdfReader(TEMPLATE_PDF)&lt;br /&gt;
     if len(template_reader.pages) == 0:&lt;br /&gt;
         raise ValueError(&amp;quot;Template PDF tidak memiliki halaman.&amp;quot;)&lt;br /&gt;
 &lt;br /&gt;
     template_page = template_reader.pages[0]&lt;br /&gt;
     page_width = float(template_page.mediabox.width)&lt;br /&gt;
     page_height = float(template_page.mediabox.height) &lt;br /&gt;
 &lt;br /&gt;
     for nama in names:&lt;br /&gt;
         reader = PdfReader(TEMPLATE_PDF)&lt;br /&gt;
         writer = PdfWriter() &lt;br /&gt;
 &lt;br /&gt;
         page = reader.pages[0]&lt;br /&gt;
         overlay_pdf = buat_overlay(page_width, page_height, nama)&lt;br /&gt;
         overlay_page = overlay_pdf.pages[0]&lt;br /&gt;
 &lt;br /&gt;
         page.merge_page(overlay_page)&lt;br /&gt;
         writer.add_page(page)&lt;br /&gt;
 &lt;br /&gt;
         # Jika template punya lebih dari 1 halaman, tambahkan sisanya&lt;br /&gt;
         for i in range(1, len(reader.pages)):&lt;br /&gt;
             writer.add_page(reader.pages[i])&lt;br /&gt;
 &lt;br /&gt;
         nama_file = safe_filename(nama)&lt;br /&gt;
         output_path = Path(OUTPUT_DIR) / f&amp;quot;sertifikat_{nama_file}.pdf&amp;quot; &lt;br /&gt;
 &lt;br /&gt;
         with open(output_path, &amp;quot;wb&amp;quot;) as out_file:&lt;br /&gt;
             writer.write(out_file)&lt;br /&gt;
 &lt;br /&gt;
         print(f&amp;quot;Berhasil membuat: {output_path}&amp;quot;)&lt;br /&gt;
 &lt;br /&gt;
 if __name__ == &amp;quot;__main__&amp;quot;:&lt;br /&gt;
     main()&lt;br /&gt;
&lt;br /&gt;
Siapkan file `nama.txt` seperti ini:&lt;br /&gt;
&lt;br /&gt;
 Andi Saputra&lt;br /&gt;
 Budi Santoso&lt;br /&gt;
 Citra Lestari&lt;br /&gt;
 Dewi Anggraini&lt;br /&gt;
&lt;br /&gt;
Install library yang dibutuhkan:&lt;br /&gt;
&lt;br /&gt;
 pip install pypdf reportlab&lt;br /&gt;
&lt;br /&gt;
Lalu jalankan:&lt;br /&gt;
&lt;br /&gt;
 python buat_sertifikat.py&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Hal penting:&lt;br /&gt;
&lt;br /&gt;
* `NAMA_X` dan `NAMA_Y` harus disesuaikan dengan posisi area nama di sertifikat.&lt;br /&gt;
* Kalau teks nama terlalu panjang, bisa:&lt;br /&gt;
&lt;br /&gt;
  * kecilkan `FONT_SIZE`&lt;br /&gt;
  * ganti font&lt;br /&gt;
  * atau pakai logika auto-fit.&lt;br /&gt;
&lt;br /&gt;
Kalau Anda mau, saya bisa lanjut buatkan versi yang lebih lengkap, misalnya:&lt;br /&gt;
&lt;br /&gt;
* baca dari '''Excel/CSV'''&lt;br /&gt;
* otomatis '''mengecilkan font''' jika nama kepanjangan&lt;br /&gt;
* tambah '''nomor sertifikat''', '''tanggal''', dan '''judul kegiatan'''&lt;br /&gt;
* atau saya sesuaikan langsung berdasarkan '''template PDF''' yang Anda upload.&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=Sekitar_Python&amp;diff=73526</id>
		<title>Sekitar Python</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=Sekitar_Python&amp;diff=73526"/>
		<updated>2026-04-20T05:38:33Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Hadoop */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''Python''' adalah [[general-purpose programming language|general-purpose]], [[high-level programming language]]. Filosofy disain '''Python''' menitik beratkan pada code [[readability]], dan sintax yang memungkinkan programmer untuk mengekspresikan konsep-nya dengan [[lines of code]] yang lebih sedikit daripada bahasa lain-nya seperti [[C (programming language)|C]]. Bahasa yang digunakan memberikan konstruksi yang dibuat agar menjadi program yang jelas baik untuk skala kecil maupun besar.&lt;br /&gt;
&lt;br /&gt;
Python mendukung multi [[programming paradigm]], termasuk style [[object-oriented programming|object-oriented]], [[imperative programming|imperative]] dan [[functional programming]] atau [[procedural programming|procedural]]. Dia memiliki fitur [[dynamic type]] system dan automatic [[memory management]] dan mempunyai[[standard library]] yang sangat komprehensif dan besar.&lt;br /&gt;
&lt;br /&gt;
Seperti [[dynamic language]] yang lain, Python kadang digunakan sebagai [[scripting language]], tapi juga mempunyai banyak non-scripting context. Menggunakan tool third-party, seperti [[Py2exe]], atau [[Pyinstaller]], Python code dapat dipaket sebagai program executable standaline. Python interpreter tersedia di banyak sistem operasi.&lt;br /&gt;
&lt;br /&gt;
[[CPython]], [[reference implementation]] dari '''Python''', adalah [[free and open source software]] dan mempunyai community-based development model, seperti juga hampir semua implementasi alternatifnya. CPython di managed oleh non-profit [[Python Software Foundation]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Mengapa Belajar Python?==&lt;br /&gt;
&lt;br /&gt;
Python adalah bahasa skrip tingkat tinggi, interpreted, interaktif dan berorientasi objek. Python dirancang agar sangat mudah dibaca. Ia sering menggunakan kata kunci bahasa Inggris sedangkan bahasa lain menggunakan tanda baca, dan memiliki konstruksi sintaksis yang lebih sedikit daripada bahasa lain.&lt;br /&gt;
&lt;br /&gt;
Python adalah KEHARUSAN bagi siswa dan profesional yang bekerja untuk menjadi Software Engineer yang baik khususnya ketika mereka bekerja di  Pengembangan Web. Berikut adalah daftar beberapa keuntungan utama dari belajar Python:&lt;br /&gt;
&lt;br /&gt;
* Python is Interpreted − Python diproses saat runtime oleh interpreter. Kita tidak perlu mengkompilasi program kita sebelum menjalankannya. Ini mirip dengan PERL dan PHP.&lt;br /&gt;
* Python is Interactive − Kita sebenarnya dapat bekerja di prompt Python dan berinteraksi langsung dengan interpreter saat menulis program.&lt;br /&gt;
* Python is Object-Oriented − Python mendukung gaya atau teknik pemrograman Object-Oriented yang mengenkapsilasi kode di dalam objek.&lt;br /&gt;
* Python is a Beginner's Language − Python adalah bahasa yang bagus untuk pemrogram tingkat pemula dan mendukung pengembangan berbagai aplikasi mulai dari pemrosesan teks sederhana hingga browser WWW hingga game.&lt;br /&gt;
&lt;br /&gt;
==Karakteristik Python==&lt;br /&gt;
&lt;br /&gt;
Berikut adalah karakteristik utama Pemrogramman Python -&lt;br /&gt;
&lt;br /&gt;
* Mendukung metode pemrograman fungsional dan terstruktur serta OOP.&lt;br /&gt;
* Dapat digunakan sebagai bahasa skrip atau dapat dikompilasi menjadi kode byte untuk membangun aplikasi yang besar.&lt;br /&gt;
* Menyediakan tipe data dinamis tingkat tinggi dan mendukung pemeriksaan tipe dinamis.&lt;br /&gt;
* Mendukung pengumpulan sampah otomatis.&lt;br /&gt;
* Mendukung pengumpulan sampah otomatis.&lt;br /&gt;
* Dapat di integrasikan dengan mudah ke C, C++, COM, ActiveX, CORBA, dan Java.&lt;br /&gt;
&lt;br /&gt;
==Hello World menggunakan Python==&lt;br /&gt;
&lt;br /&gt;
Sekadar memberi sedikit keseruan tentang Python, berikut adalah program kecil Python Hello World konvensional.&lt;br /&gt;
&lt;br /&gt;
 print (&amp;quot;Hello, Python!&amp;quot;);&lt;br /&gt;
&lt;br /&gt;
==Aplikasi Python==&lt;br /&gt;
&lt;br /&gt;
Seperti yang disebutkan sebelumnya, Python adalah salah satu bahasa yang paling banyak digunakan di web. Berikut adalah beberapa di antaranya:&lt;br /&gt;
&lt;br /&gt;
* Easy-to-learn − Python memiliki kata kunci yang sedikit, struktur sederhana, dan sintaks yang jelas. Hal ini memungkinkan siswa untuk menguasai bahasa dengan cepat.&lt;br /&gt;
* Easy-to-read − Kode Python lebih jelas didefinisikan dan terlihat oleh mata.&lt;br /&gt;
* Easy-to-maintain − Kode sumber Python cukup mudah dipelihara.&lt;br /&gt;
* A broad standard library − Sebagian besar pustaka Python sangat portabel dan kompatibel lintas platform pada UNIX, Windows, dan Macintosh.&lt;br /&gt;
* Interactive Mode − Python memiliki dukungan untuk mode interaktif yang memungkinkan pengujian interaktif dan debugging cuplikan kode.&lt;br /&gt;
* Portable − Python dapat berjalan di berbagai platform perangkat keras dan memiliki antarmuka yang sama di semua platform.&lt;br /&gt;
* Extendable − Anda dapat menambahkan modul tingkat rendah ke interpreter Python. Modul ini memungkinkan pemrogram untuk menambah atau menyesuaikan tool mereka agar lebih efisien.&lt;br /&gt;
* Databases − Python menyediakan antarmuka ke semua database komersial utama.&lt;br /&gt;
* GUI Programming − Python mendukung aplikasi GUI yang dapat dibuat dan dipindahkan ke banyak panggilan sistem, pustaka dan sistem windows, seperti Windows MFC, Macintosh, dan sistem X Window dari Unix.&lt;br /&gt;
* Scalable − Python menyediakan struktur dan dukungan yang lebih baik untuk program besar daripada skrip shell.&lt;br /&gt;
&lt;br /&gt;
==Tutorial==&lt;br /&gt;
&lt;br /&gt;
* https://colab.research.google.com/ '''Recommended untuk Data Science'''&lt;br /&gt;
* https://www.tutorialspoint.com/python/index.htm '''Recommended'''&lt;br /&gt;
* https://go.qwiklabs.com/qwiklabs-free&lt;br /&gt;
* https://notebooks.azure.com/&lt;br /&gt;
* https://docs.aws.amazon.com/sagemaker/latest/dg/gs-setup-working-env.html&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* http://www.fromdev.com/2014/03/python-tutorials-resources.html&lt;br /&gt;
* http://www.korokithakis.net/tutorials/python&lt;br /&gt;
* https://www.programiz.com/python-programming&lt;br /&gt;
* https://www.guru99.com/python-tutorials.html&lt;br /&gt;
* https://realpython.com/&lt;br /&gt;
* http://www.sthurlow.com/python/&lt;br /&gt;
* http://www.bogotobogo.com/python/pytut.php&lt;br /&gt;
* http://www.tutorialspoint.com/python/index.htm&lt;br /&gt;
* http://www.briggs.net.nz/snake-wrangling-for-kids.html&lt;br /&gt;
* https://nealcaren.github.io/python-tutorials/&lt;br /&gt;
* http://docs.python.org/tutorial/&lt;br /&gt;
* https://docs.python.org/3.0/library/socket.html&lt;br /&gt;
* http://effbot.org/zone/socket-intro.htm&lt;br /&gt;
&lt;br /&gt;
===Belajar Python Bahasa Indonesia===&lt;br /&gt;
&lt;br /&gt;
* https://www.pythonesia.org/ '''Recommended'''&lt;br /&gt;
* http://www.pythonindo.com/&lt;br /&gt;
* https://belajarpython.com/&lt;br /&gt;
&lt;br /&gt;
==Lebih Detail==&lt;br /&gt;
&lt;br /&gt;
===Persiapan===&lt;br /&gt;
&lt;br /&gt;
* [[Python: Ubuntu 22.04 Install python 3.7]]&lt;br /&gt;
* [[Python: Ubuntu 24.04 Install]]&lt;br /&gt;
* [[Python: Ubuntu 24.04 IDE python]]&lt;br /&gt;
* [[Python: Ubuntu 24.04 VirtualEnv IDE Spyder &amp;amp; Tensorflow]]&lt;br /&gt;
* [[Python: Anaconda]]&lt;br /&gt;
* [[Python: Instalasi]]&lt;br /&gt;
* [[Python: cek versi python]]&lt;br /&gt;
* [[Python: instalasi pip]]&lt;br /&gt;
* [[Spyder: Install]]&lt;br /&gt;
* [[Spyder4: Install Conda Spyder4 Ubuntu 20.04]]&lt;br /&gt;
&lt;br /&gt;
===File===&lt;br /&gt;
&lt;br /&gt;
* [[Python: Ubuntu 24.04 read xlsx]]&lt;br /&gt;
* [[Python: Ubuntu 24.04 read csv]]&lt;br /&gt;
* [[Python: Ubuntu 24.04 read txt]]&lt;br /&gt;
* [[Python: Ubuntu 24.04 read pdf]]&lt;br /&gt;
* [[Python: Ubuntu 24.04 generate random array 2 kolom]]&lt;br /&gt;
&lt;br /&gt;
===Dasar===&lt;br /&gt;
&lt;br /&gt;
* [[Python: Basic Syntax]]&lt;br /&gt;
* [[Python: Tipe Variable]]&lt;br /&gt;
* [[Python: Pemula]]&lt;br /&gt;
* [[Python: Random Number]]&lt;br /&gt;
* [[Python: time]]&lt;br /&gt;
* [[Python: Print waktu]]&lt;br /&gt;
* [[Python: File]]&lt;br /&gt;
* [[Python: Parsing]]&lt;br /&gt;
* [[Python: String Operation]]&lt;br /&gt;
* [[Python: List Operation]]&lt;br /&gt;
* [[Python: List sort]]&lt;br /&gt;
* [[Python: regex]]&lt;br /&gt;
&lt;br /&gt;
===Keras / Tensorflow===&lt;br /&gt;
&lt;br /&gt;
* [[Python: COLAB: mount gdrive]]&lt;br /&gt;
* https://colab.research.google.com/github/google/eng-edu/blob/main/ml/cc/exercises/linear_regression_with_synthetic_data.ipynb#scrollTo=Ye730h13CQ97 Linear Regression&lt;br /&gt;
* [[Python: Ubuntu 24.04 Install Keras / Tensorflow]]&lt;br /&gt;
* [[Python: Ubuntu 24.04 Install Keras / Tensorflow untuk linier regression]]&lt;br /&gt;
* [[Python: Ubuntu 24.04 Tensorflow analisa UMKM]]&lt;br /&gt;
* [[Python: Ubuntu 24.04 Tensorflow analisa UMKM Target OMZET]]&lt;br /&gt;
* [[Python: Ubuntu 24.04 Tensorflow analisa UMKM Target OMZET, save model, predict New Data]]&lt;br /&gt;
* [[Python: Ubuntu 24.04 Tensorflow analisa UMKM Target MODAL, save dari kelompok modal tertentu]]&lt;br /&gt;
* https://www.pluralsight.com/resources/blog/guides/regression-keras Keras Deep Learning&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
====Youtube====&lt;br /&gt;
&lt;br /&gt;
* https://youtu.be/veaJzC_Nngc Pemula Banget&lt;br /&gt;
* https://www.youtube.com/watch?v=i66kqV4QtUM Pemula Banget&lt;br /&gt;
&lt;br /&gt;
===Advanced===&lt;br /&gt;
&lt;br /&gt;
* [[Python: sqlite]]&lt;br /&gt;
* [[Pyhton: NumPy Matrix dan Aljabar Linear]]&lt;br /&gt;
* [[Python: PDF]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
====Youtube====&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=BOxefD7TAvw - membuat array&lt;br /&gt;
&lt;br /&gt;
===Panda===&lt;br /&gt;
&lt;br /&gt;
* [[Panda: Set Index]]&lt;br /&gt;
* [[Panda: read csv datetime]]&lt;br /&gt;
* [[Panda: read CSV datetime index plot]] '''RECOMMENDED'''&lt;br /&gt;
* [[Panda: datetime to seconds]]&lt;br /&gt;
* [[Panda: datetime cheat sheet]]&lt;br /&gt;
* [[Panda: Tips on Working with Datetime Index in pandas]]&lt;br /&gt;
* [[Panda: iloc, loc, ix to select rows and columns in Pandas DataFrames]]&lt;br /&gt;
* [[Panda: Working With Date In Pandas]]&lt;br /&gt;
* [[Panda: Scaling]]&lt;br /&gt;
* [[Panda: Scaling Select Colums]]&lt;br /&gt;
* [[NumPy: Index, Slice and Reshape NumPy Arrays for Machine Learning]]&lt;br /&gt;
&lt;br /&gt;
===Jaringan===&lt;br /&gt;
&lt;br /&gt;
* https://www.tutorialspoint.com/python/python_networking.htm&lt;br /&gt;
* [[Python: Web Server]]&lt;br /&gt;
* [[Python: Web Server ONE LINER]]&lt;br /&gt;
* [[Python: Echo Server]]&lt;br /&gt;
* [[Python: Echo UDP Server]]&lt;br /&gt;
* [[Python: Read Microphone]]&lt;br /&gt;
* [[Python: Mengirim suara via UDP]]&lt;br /&gt;
* [[Python: Soket UDP]]&lt;br /&gt;
* [[Python: Soket TCP]]&lt;br /&gt;
* [[Python: Kirim via TCP dan di parsing]]&lt;br /&gt;
* [[Python: Twitter]]&lt;br /&gt;
* [[Python: email]]&lt;br /&gt;
&lt;br /&gt;
* [[Python3: Socket UDP]]&lt;br /&gt;
* [[Python3: Echo TCP]]&lt;br /&gt;
&lt;br /&gt;
==Text Processing==&lt;br /&gt;
&lt;br /&gt;
* [[Python: pdfminer]] '''SIMPLE &amp;amp; RECOMMENDED'''&lt;br /&gt;
* [[Python: siapkan nltk]]&lt;br /&gt;
* [[Python: Siapkan stopwords Indonesia]]&lt;br /&gt;
* [[Python: Read PDF]]&lt;br /&gt;
* [[Python: Baca PDF bahasa Inggris untuk jadi text file]]&lt;br /&gt;
* [[Python: File Stemming dengan Sastrawi]]&lt;br /&gt;
&lt;br /&gt;
==Translate==&lt;br /&gt;
&lt;br /&gt;
* [[Python: Translate]]&lt;br /&gt;
&lt;br /&gt;
===BeautifulSoup===&lt;br /&gt;
&lt;br /&gt;
* [[Python: Google Search]]&lt;br /&gt;
* [[Python: Read URL]]&lt;br /&gt;
* [[Python: Read Twitter]]&lt;br /&gt;
&lt;br /&gt;
===Scraping Web===&lt;br /&gt;
&lt;br /&gt;
* [[Python: Referensi untuk Social Scientist]] '''RECOMMENDED'''&lt;br /&gt;
* [[Python: Mining the Social Web]]&lt;br /&gt;
* http://www-scf.usc.edu/~aupadhya/Mining.pdf '''RECOMMENDED'''&lt;br /&gt;
* '''[[Python: Collecting Twitter Data]]'''&lt;br /&gt;
* [[Python: Python for Mining Data From Twitter]]&lt;br /&gt;
* [[Python: Daftar API Twitter dengan Python]]&lt;br /&gt;
* [[Python: Scraping Twitter]]&lt;br /&gt;
* [[Python: SCraping Twitter lagi]]&lt;br /&gt;
* [[Python: twitterstream.py]]&lt;br /&gt;
* [[Python: Collecting Data]]&lt;br /&gt;
* [[Python: Text Pre-processing]]&lt;br /&gt;
* [[Python: Term Frequencies]]&lt;br /&gt;
* [[Python: Rugby &amp;amp; Term Co-occurrences]]&lt;br /&gt;
* [[Python: Data Visualisation Basics]]&lt;br /&gt;
* [[Python: Sentimen Analysis]]&lt;br /&gt;
* [[Python: Geolocation and Interactive Maps]]&lt;br /&gt;
* [[Python: Generating Network Graph of Twitter Follower]] '''RECOMMENDED'''&lt;br /&gt;
* [[Python: Twitter Analytic]]&lt;br /&gt;
* [[Python: Collect Twitter follower network with twecoll]] '''RECOMMENDED'''&lt;br /&gt;
* [[Python: Analyzing Twitter Networks with Gephi 0.9.1]]&lt;br /&gt;
&lt;br /&gt;
* [[Python: TwitterSearch]] '''RECOMMENDED'''&lt;br /&gt;
* [[Python: Create Gephi network graphs from Python?]]&lt;br /&gt;
* [[Python: Gephi Streamer]]&lt;br /&gt;
* [[Python: Mining Twitter for GamerGate: A How-To]]&lt;br /&gt;
* [[Python: Mining Twitter for GamerGate: Visualization]]&lt;br /&gt;
&lt;br /&gt;
====Pyhon Facebook====&lt;br /&gt;
&lt;br /&gt;
* [[Pyhon: Facebook Page Crawler]]&lt;br /&gt;
&lt;br /&gt;
====Python Twitter====&lt;br /&gt;
&lt;br /&gt;
* [[Twitter Register API]]&lt;br /&gt;
* https://github.com/bear/python-twitter&lt;br /&gt;
* [[Python: python-twitter: tweet.py]]&lt;br /&gt;
* [[Python: python-twitter: track-user.py]]&lt;br /&gt;
* [[Python: python-twitter: view-friends.py]]&lt;br /&gt;
* [[Python: python-twitter: view-status.py]]&lt;br /&gt;
&lt;br /&gt;
====Tweepy====&lt;br /&gt;
&lt;br /&gt;
* [[Python: Tweepy: Twitter Streaming]]&lt;br /&gt;
&lt;br /&gt;
====Selenium====&lt;br /&gt;
&lt;br /&gt;
* [[Python: Konfigurasi geckodriver dan selenium untuk browsing web]]&lt;br /&gt;
* [[Python: Selenium Search di Google]]&lt;br /&gt;
* [https://github.com/DanMcInerney/search-google/blob/master/search-google.py Python: Search Google]&lt;br /&gt;
* [[Python: search-google.py]]&lt;br /&gt;
* [[Python: browse-url.py]]&lt;br /&gt;
* [[Python: URL bermasalah dengan selenium]]&lt;br /&gt;
* [[Python: Selenium Login ke Twitter]]&lt;br /&gt;
* [[Python: Selenium Crawler]]&lt;br /&gt;
* [[Python: Twitter data mining with Python and Gephi]]&lt;br /&gt;
&lt;br /&gt;
* https://github.com/computermacgyver/twitter-python&lt;br /&gt;
&lt;br /&gt;
* [[Gephi: Instalasi]]&lt;br /&gt;
&lt;br /&gt;
====NLTK====&lt;br /&gt;
&lt;br /&gt;
* [[Python: NLTK install]]&lt;br /&gt;
* [[Python: NLTK download corpus]]&lt;br /&gt;
* [[Python: NLTK stopwords]]&lt;br /&gt;
* [[Python: cari-stopwords.py]]&lt;br /&gt;
* [[Python: cari-stopwords-freq.py]]&lt;br /&gt;
* [[Python: cari-stopwords-common.py]]&lt;br /&gt;
* [[Python: stopwords Indonesia]]&lt;br /&gt;
* [[Python: NLTK twitter]]&lt;br /&gt;
* [https://github.com/elishowk/cablegate_semnet Python: NLTK analisa wikileak]&lt;br /&gt;
* [[Python: NLTK cleaning text]]&lt;br /&gt;
* https://github.com/robincamille/gephi-scripts/blob/master/gephi-wordpairs-5&lt;br /&gt;
* [[Python: Gephi + MALLET + EMDA]]&lt;br /&gt;
* [[Python: NLTK Twitter Sentiment Analysis]]&lt;br /&gt;
* [[Python: NLTK Twitter Sentiment Analysis 2]]&lt;br /&gt;
&lt;br /&gt;
==igraph==&lt;br /&gt;
&lt;br /&gt;
* [[Python: igraph tutorial]]&lt;br /&gt;
&lt;br /&gt;
==Image / Signal Processing==&lt;br /&gt;
&lt;br /&gt;
* [[Python: Traditional Face Detection]]&lt;br /&gt;
&lt;br /&gt;
==Hadoop==&lt;br /&gt;
&lt;br /&gt;
* [[Hadoop: Python]]&lt;br /&gt;
&lt;br /&gt;
==Misc==&lt;br /&gt;
&lt;br /&gt;
* [[Python: Nulis nama di PDF Sertifikat]]&lt;br /&gt;
&lt;br /&gt;
==Streaming Audio==&lt;br /&gt;
&lt;br /&gt;
* http://www.raspberrypi.org/forums/viewtopic.php?&amp;amp;t=23504&lt;br /&gt;
&lt;br /&gt;
===Perbandingan Javascript PHP Python===&lt;br /&gt;
&lt;br /&gt;
* http://hyperpolyglot.org/scripting&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Youtube==&lt;br /&gt;
&lt;br /&gt;
* [https://www.youtube.com/watch?v=md30SYkcwOI YOUTUBE: PYTHON Instalasi Spyder dan Python untuk Pemula]&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[Programming]]&lt;br /&gt;
* [[Linux Howto]]&lt;br /&gt;
* [[Python: Web Framework]]&lt;br /&gt;
* [[Django]]&lt;br /&gt;
* [[Python3]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73525</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73525"/>
		<updated>2026-03-25T23:48:06Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Pranala Menarik */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop pull ollama model]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==ComfyUI==&lt;br /&gt;
&lt;br /&gt;
* [[ComfyUI: instalasi]]&lt;br /&gt;
* [[ComfyUI: Instalasi venv]]&lt;br /&gt;
* [[ComfyUI: Instalasi venv GPU]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73524</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73524"/>
		<updated>2026-03-25T23:47:52Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* ComfyUI */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop pull ollama model]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73523</id>
		<title>ComfyUI: Instalasi venv GPU</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73523"/>
		<updated>2026-03-25T23:32:58Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Berikut '''panduan lengkap tapi singkat''' untuk '''Ubuntu 24.04 + GPU kelas RTX 5070/5070 Ti''' menjalankan '''ComfyUI''' dengan model '''grafik/gambar''' dan '''audio'''.&lt;br /&gt;
&lt;br /&gt;
Catatan penting dulu: untuk desktop, '''RTX 5070 = 12 GB''', sedangkan '''RTX 5070 Ti = 16 GB'''. Jadi kalau Anda menulis '''5070 16 GB''', besar kemungkinan yang dimaksud adalah '''5070 Ti''', atau GPU laptop kelas 16 GB. Saya buat panduan ini aman untuk '''VRAM 12–16 GB'''. PyTorch 2.7 juga sudah menambahkan dukungan untuk arsitektur '''NVIDIA Blackwell''' dan wheel '''CUDA 12.8''', jadi jalur yang paling masuk akal untuk seri 50 adalah pakai PyTorch baru, bukan stack lama. ([NVIDIA][1])&lt;br /&gt;
&lt;br /&gt;
== Rekomendasi singkat==&lt;br /&gt;
&lt;br /&gt;
Untuk '''gambar''', mulai dari '''SDXL''' dulu karena paling stabil untuk 12–16 GB VRAM. ComfyUI sendiri memang dipasang lewat alur '''venv → clone repo → install dependencies → run''', dan model diletakkan di folder `models/...` sesuai tipenya. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
Untuk '''audio''', ComfyUI memang punya jalur resmi contoh '''Stable Audio Open 1.0''', dengan file checkpoint di `models/checkpoints/` dan text encoder di `models/text_encoders/`. Jadi audio bisa, tetapi untuk awal saya sarankan pasang setelah image workflow sudah sehat. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
== 1) Siapkan Ubuntu 24.04==&lt;br /&gt;
&lt;br /&gt;
Update sistem:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
Untuk driver NVIDIA, paling aman di Ubuntu 24.04 adalah pasang '''driver proprietary''' dari '''Software &amp;amp; Updates → Additional Drivers''', lalu reboot. Setelah reboot, cek:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau `nvidia-smi` keluar normal, lanjut.&lt;br /&gt;
&lt;br /&gt;
== 2) Buat virtual environment dan install ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
&lt;br /&gt;
Alur ini sesuai dokumentasi resmi ComfyUI manual install untuk Linux. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 3) Install PyTorch yang cocok untuk RTX 5070 / 5070 Ti==&lt;br /&gt;
&lt;br /&gt;
Karena PyTorch 2.7 menambahkan dukungan Blackwell dan wheel CUDA 12.8, ini yang saya sarankan:&lt;br /&gt;
&lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
&lt;br /&gt;
Lalu install dependensi ComfyUI:&lt;br /&gt;
&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
PyTorch sendiri menyebut 2.7 membawa dukungan Blackwell dan prebuilt wheel CUDA 12.8; ComfyUI di sisi lain memang meminta Anda memasang dependency GPU dulu baru `requirements.txt`. ([PyTorch][4])&lt;br /&gt;
&lt;br /&gt;
== 4) Jalankan ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Kalau ingin bisa diakses dari browser lain di jaringan:&lt;br /&gt;
 &lt;br /&gt;
 python main.py --listen 0.0.0.0&lt;br /&gt;
&lt;br /&gt;
Secara resmi ComfyUI menjalankan aplikasi dengan `python main.py`. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 5) Aktifkan Manager==&lt;br /&gt;
&lt;br /&gt;
Sekarang Manager baru sudah built-in di core, tetapi harus diaktifkan dan dependency-nya diinstall:&lt;br /&gt;
&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi ComfyUI Manager memang menyebut untuk manual install: aktifkan venv, install `manager_requirements.txt`, lalu jalankan dengan `--enable-manager`. ([ComfyUI Documentation][5])&lt;br /&gt;
&lt;br /&gt;
== 6) Folder model yang perlu ada==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/vae&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/loras&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/controlnet&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/text_encoders&lt;br /&gt;
&lt;br /&gt;
ComfyUI menjelaskan model perlu diletakkan di subfolder sesuai tipe, lalu dipilih lewat node loader yang sesuai. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Model yang relevan==&lt;br /&gt;
&lt;br /&gt;
== A. Model grafik / gambar==&lt;br /&gt;
&lt;br /&gt;
=== Pilihan terbaik untuk mulai: '''SDXL Base 1.0'''===&lt;br /&gt;
&lt;br /&gt;
Ini pilihan paling aman untuk GPU 12–16 GB. Cocok untuk text-to-image umum, stabil, dan sangat didukung workflow ComfyUI. ComfyUI “first generation” juga memang mengajarkan pola dasar image generation dengan memilih model di node loader. ([ComfyUI Documentation][7])&lt;br /&gt;
&lt;br /&gt;
Download:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Opsional refiner:&lt;br /&gt;
&lt;br /&gt;
 wget -O sd_xl_refiner_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
=== Kapan pakai '''FLUX.1-dev'''===&lt;br /&gt;
&lt;br /&gt;
FLUX.1-dev resmi tersedia untuk ComfyUI dan merupakan model 12B untuk text-to-image, tetapi akses file-nya mensyaratkan persetujuan lisensi di Hugging Face, dan lisensinya '''non-commercial'''. Di GPU 16 GB dia bisa dicoba, tetapi untuk pengalaman awal saya tetap menyarankan '''SDXL dulu''' karena lebih ringan dan lebih sederhana. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda tetap ingin FLUX:&lt;br /&gt;
&lt;br /&gt;
1. buka halaman model di Hugging Face,&lt;br /&gt;
2. setujui syarat akses,&lt;br /&gt;
3. unduh file yang direkomendasikan untuk ComfyUI,&lt;br /&gt;
4. letakkan di folder model yang diminta workflow/nodenya. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
=== Tambahan yang relevan setelah SDXL jalan===&lt;br /&gt;
&lt;br /&gt;
* '''LoRA''' untuk style/karakter → taruh di `models/loras/`&lt;br /&gt;
* '''ControlNet''' untuk pose/lineart/depth → taruh di `models/controlnet/`&lt;br /&gt;
  ComfyUI memang memisahkan model berdasarkan tipe loader seperti `Load Checkpoint`, `Load LoRA`, dan `Load VAE`. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
== B. Model audio==&lt;br /&gt;
&lt;br /&gt;
=== Pilihan paling relevan di ComfyUI: '''Stable Audio Open 1.0'''===&lt;br /&gt;
&lt;br /&gt;
ComfyUI punya contoh audio resmi untuk '''Stable Audio Open 1.0'''. Yang dibutuhkan:&lt;br /&gt;
&lt;br /&gt;
* `stable_audio_open_1.0.safetensors` → `models/checkpoints/`&lt;br /&gt;
* `t5_base.safetensors` → `models/text_encoders/` ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
Struktur akhirnya:&lt;br /&gt;
&lt;br /&gt;
 ~/AI/ComfyUI/models/checkpoints/stable_audio_open_1.0.safetensors&lt;br /&gt;
 ~/AI/ComfyUI/models/text_encoders/t5_base.safetensors&lt;br /&gt;
&lt;br /&gt;
Workflow audio resminya bisa di-load dari contoh audio ComfyUI. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
=== Kalau butuh TTS / voice===&lt;br /&gt;
&lt;br /&gt;
Untuk TTS, ComfyUI bisa diperluas dengan custom node seperti '''TTS-Audio-Suite''', yang menggabungkan beberapa engine TTS dan voice conversion. Namun ini lebih cocok setelah instalasi dasar Anda stabil, karena custom node berarti tambahan dependency. Secara resmi instal custom node di ComfyUI memang selalu dua langkah: clone ke `custom_nodes` lalu install dependensi Python-nya. ([GitHub][9])&lt;br /&gt;
&lt;br /&gt;
==Urutan instalasi yang saya sarankan==&lt;br /&gt;
&lt;br /&gt;
1. Pasang driver NVIDIA, pastikan `nvidia-smi` normal.&lt;br /&gt;
2. Install '''ComfyUI + PyTorch 2.7 cu128'''. ([PyTorch][4])&lt;br /&gt;
3. Aktifkan '''Manager'''. ([ComfyUI Documentation][5])&lt;br /&gt;
4. Download '''SDXL Base 1.0''' dulu.&lt;br /&gt;
5. Tes generate gambar pertama.&lt;br /&gt;
6. Baru tambahkan '''Stable Audio Open 1.0''' untuk audio. ([Comfy Anonymous][3])&lt;br /&gt;
7. Setelah semuanya stabil, baru eksperimen '''FLUX''', LoRA, dan ControlNet. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
==Perintah ringkas yang paling praktis==&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
 &lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 &lt;br /&gt;
 mkdir -p models/checkpoints models/vae models/loras models/controlnet models/text_encoders&lt;br /&gt;
 &lt;br /&gt;
 cd models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
==Setting awal yang aman untuk GPU 12–16 GB==&lt;br /&gt;
&lt;br /&gt;
Untuk '''SDXL''':&lt;br /&gt;
&lt;br /&gt;
* resolusi awal: '''1024x1024'''&lt;br /&gt;
* batch: '''1'''&lt;br /&gt;
* steps: '''20–30'''&lt;br /&gt;
* sampler: mulai dari default workflow dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''Stable Audio Open''':&lt;br /&gt;
&lt;br /&gt;
* mulai dari workflow contoh resmi&lt;br /&gt;
* jangan pasang banyak custom node dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''FLUX''':&lt;br /&gt;
&lt;br /&gt;
* anggap sebagai tahap kedua, bukan model pertama&lt;br /&gt;
&lt;br /&gt;
Yang paling penting: untuk kelas '''5070/5070 Ti''', bottleneck Anda bukan hanya compute, tetapi '''VRAM dan kompleksitas workflow'''. Jadi '''SDXL lebih relevan''' untuk produktivitas awal daripada langsung memaksa '''FLUX'''. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Saya bisa lanjutkan dengan '''panduan satu file bash otomatis''' untuk:&lt;br /&gt;
'''Ubuntu 24.04 + NVIDIA + ComfyUI + SDXL + Stable Audio Open''', supaya tinggal copy-paste.&lt;br /&gt;
&lt;br /&gt;
 [1]: https://www.nvidia.com/en-us/geforce/graphics-cards/50-series/rtx-5070-family/ &amp;quot;GeForce RTX 5070 Family Graphics Cards | NVIDIA&amp;quot;&lt;br /&gt;
 [2]: https://docs.comfy.org/installation/manual_install &amp;quot;How to install ComfyUI manually in different systems - ComfyUI&amp;quot;&lt;br /&gt;
 [3]: https://comfyanonymous.github.io/ComfyUI_examples/audio/ &amp;quot;Audio Examples | ComfyUI_examples&amp;quot;&lt;br /&gt;
 [4]: https://pytorch.org/blog/pytorch-2-7/ &amp;quot;PyTorch 2.7 Release – PyTorch&amp;quot;&lt;br /&gt;
 [5]: https://docs.comfy.org/manager/install &amp;quot;ComfyUI-Manager Installation - ComfyUI&amp;quot;&lt;br /&gt;
 [6]: https://docs.comfy.org/development/core-concepts/models?utm_source=chatgpt.com &amp;quot;Models&amp;quot;&lt;br /&gt;
 [7]: https://docs.comfy.org/get_started/first_generation?utm_source=chatgpt.com &amp;quot;Getting Started with AI Image Generation&amp;quot;&lt;br /&gt;
 [8]: https://huggingface.co/black-forest-labs/FLUX.1-dev &amp;quot;black-forest-labs/FLUX.1-dev · Hugging Face&amp;quot;&lt;br /&gt;
 [9]: https://github.com/diodiogod/TTS-Audio-Suite?utm_source=chatgpt.com &amp;quot;diodiogod/TTS-Audio-Suite: A ComfyUI custom node ...&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73522</id>
		<title>ComfyUI: Instalasi venv GPU</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73522"/>
		<updated>2026-03-25T23:32:43Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* = Pilihan terbaik untuk mulai: SDXL Base 1.0 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Berikut '''panduan lengkap tapi singkat''' untuk '''Ubuntu 24.04 + GPU kelas RTX 5070/5070 Ti''' menjalankan '''ComfyUI''' dengan model '''grafik/gambar''' dan '''audio'''.&lt;br /&gt;
&lt;br /&gt;
Catatan penting dulu: untuk desktop, '''RTX 5070 = 12 GB''', sedangkan '''RTX 5070 Ti = 16 GB'''. Jadi kalau Anda menulis '''5070 16 GB''', besar kemungkinan yang dimaksud adalah '''5070 Ti''', atau GPU laptop kelas 16 GB. Saya buat panduan ini aman untuk '''VRAM 12–16 GB'''. PyTorch 2.7 juga sudah menambahkan dukungan untuk arsitektur '''NVIDIA Blackwell''' dan wheel '''CUDA 12.8''', jadi jalur yang paling masuk akal untuk seri 50 adalah pakai PyTorch baru, bukan stack lama. ([NVIDIA][1])&lt;br /&gt;
&lt;br /&gt;
== Rekomendasi singkat&lt;br /&gt;
&lt;br /&gt;
Untuk '''gambar''', mulai dari '''SDXL''' dulu karena paling stabil untuk 12–16 GB VRAM. ComfyUI sendiri memang dipasang lewat alur '''venv → clone repo → install dependencies → run''', dan model diletakkan di folder `models/...` sesuai tipenya. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
Untuk '''audio''', ComfyUI memang punya jalur resmi contoh '''Stable Audio Open 1.0''', dengan file checkpoint di `models/checkpoints/` dan text encoder di `models/text_encoders/`. Jadi audio bisa, tetapi untuk awal saya sarankan pasang setelah image workflow sudah sehat. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
== 1) Siapkan Ubuntu 24.04==&lt;br /&gt;
&lt;br /&gt;
Update sistem:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
Untuk driver NVIDIA, paling aman di Ubuntu 24.04 adalah pasang '''driver proprietary''' dari '''Software &amp;amp; Updates → Additional Drivers''', lalu reboot. Setelah reboot, cek:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau `nvidia-smi` keluar normal, lanjut.&lt;br /&gt;
&lt;br /&gt;
== 2) Buat virtual environment dan install ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
&lt;br /&gt;
Alur ini sesuai dokumentasi resmi ComfyUI manual install untuk Linux. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 3) Install PyTorch yang cocok untuk RTX 5070 / 5070 Ti==&lt;br /&gt;
&lt;br /&gt;
Karena PyTorch 2.7 menambahkan dukungan Blackwell dan wheel CUDA 12.8, ini yang saya sarankan:&lt;br /&gt;
&lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
&lt;br /&gt;
Lalu install dependensi ComfyUI:&lt;br /&gt;
&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
PyTorch sendiri menyebut 2.7 membawa dukungan Blackwell dan prebuilt wheel CUDA 12.8; ComfyUI di sisi lain memang meminta Anda memasang dependency GPU dulu baru `requirements.txt`. ([PyTorch][4])&lt;br /&gt;
&lt;br /&gt;
== 4) Jalankan ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Kalau ingin bisa diakses dari browser lain di jaringan:&lt;br /&gt;
 &lt;br /&gt;
 python main.py --listen 0.0.0.0&lt;br /&gt;
&lt;br /&gt;
Secara resmi ComfyUI menjalankan aplikasi dengan `python main.py`. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 5) Aktifkan Manager==&lt;br /&gt;
&lt;br /&gt;
Sekarang Manager baru sudah built-in di core, tetapi harus diaktifkan dan dependency-nya diinstall:&lt;br /&gt;
&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi ComfyUI Manager memang menyebut untuk manual install: aktifkan venv, install `manager_requirements.txt`, lalu jalankan dengan `--enable-manager`. ([ComfyUI Documentation][5])&lt;br /&gt;
&lt;br /&gt;
== 6) Folder model yang perlu ada==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/vae&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/loras&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/controlnet&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/text_encoders&lt;br /&gt;
&lt;br /&gt;
ComfyUI menjelaskan model perlu diletakkan di subfolder sesuai tipe, lalu dipilih lewat node loader yang sesuai. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Model yang relevan==&lt;br /&gt;
&lt;br /&gt;
== A. Model grafik / gambar==&lt;br /&gt;
&lt;br /&gt;
=== Pilihan terbaik untuk mulai: '''SDXL Base 1.0'''===&lt;br /&gt;
&lt;br /&gt;
Ini pilihan paling aman untuk GPU 12–16 GB. Cocok untuk text-to-image umum, stabil, dan sangat didukung workflow ComfyUI. ComfyUI “first generation” juga memang mengajarkan pola dasar image generation dengan memilih model di node loader. ([ComfyUI Documentation][7])&lt;br /&gt;
&lt;br /&gt;
Download:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Opsional refiner:&lt;br /&gt;
&lt;br /&gt;
 wget -O sd_xl_refiner_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
=== Kapan pakai '''FLUX.1-dev'''===&lt;br /&gt;
&lt;br /&gt;
FLUX.1-dev resmi tersedia untuk ComfyUI dan merupakan model 12B untuk text-to-image, tetapi akses file-nya mensyaratkan persetujuan lisensi di Hugging Face, dan lisensinya '''non-commercial'''. Di GPU 16 GB dia bisa dicoba, tetapi untuk pengalaman awal saya tetap menyarankan '''SDXL dulu''' karena lebih ringan dan lebih sederhana. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda tetap ingin FLUX:&lt;br /&gt;
&lt;br /&gt;
1. buka halaman model di Hugging Face,&lt;br /&gt;
2. setujui syarat akses,&lt;br /&gt;
3. unduh file yang direkomendasikan untuk ComfyUI,&lt;br /&gt;
4. letakkan di folder model yang diminta workflow/nodenya. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
=== Tambahan yang relevan setelah SDXL jalan===&lt;br /&gt;
&lt;br /&gt;
* '''LoRA''' untuk style/karakter → taruh di `models/loras/`&lt;br /&gt;
* '''ControlNet''' untuk pose/lineart/depth → taruh di `models/controlnet/`&lt;br /&gt;
  ComfyUI memang memisahkan model berdasarkan tipe loader seperti `Load Checkpoint`, `Load LoRA`, dan `Load VAE`. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
== B. Model audio==&lt;br /&gt;
&lt;br /&gt;
=== Pilihan paling relevan di ComfyUI: '''Stable Audio Open 1.0'''===&lt;br /&gt;
&lt;br /&gt;
ComfyUI punya contoh audio resmi untuk '''Stable Audio Open 1.0'''. Yang dibutuhkan:&lt;br /&gt;
&lt;br /&gt;
* `stable_audio_open_1.0.safetensors` → `models/checkpoints/`&lt;br /&gt;
* `t5_base.safetensors` → `models/text_encoders/` ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
Struktur akhirnya:&lt;br /&gt;
&lt;br /&gt;
 ~/AI/ComfyUI/models/checkpoints/stable_audio_open_1.0.safetensors&lt;br /&gt;
 ~/AI/ComfyUI/models/text_encoders/t5_base.safetensors&lt;br /&gt;
&lt;br /&gt;
Workflow audio resminya bisa di-load dari contoh audio ComfyUI. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
=== Kalau butuh TTS / voice===&lt;br /&gt;
&lt;br /&gt;
Untuk TTS, ComfyUI bisa diperluas dengan custom node seperti '''TTS-Audio-Suite''', yang menggabungkan beberapa engine TTS dan voice conversion. Namun ini lebih cocok setelah instalasi dasar Anda stabil, karena custom node berarti tambahan dependency. Secara resmi instal custom node di ComfyUI memang selalu dua langkah: clone ke `custom_nodes` lalu install dependensi Python-nya. ([GitHub][9])&lt;br /&gt;
&lt;br /&gt;
==Urutan instalasi yang saya sarankan==&lt;br /&gt;
&lt;br /&gt;
1. Pasang driver NVIDIA, pastikan `nvidia-smi` normal.&lt;br /&gt;
2. Install '''ComfyUI + PyTorch 2.7 cu128'''. ([PyTorch][4])&lt;br /&gt;
3. Aktifkan '''Manager'''. ([ComfyUI Documentation][5])&lt;br /&gt;
4. Download '''SDXL Base 1.0''' dulu.&lt;br /&gt;
5. Tes generate gambar pertama.&lt;br /&gt;
6. Baru tambahkan '''Stable Audio Open 1.0''' untuk audio. ([Comfy Anonymous][3])&lt;br /&gt;
7. Setelah semuanya stabil, baru eksperimen '''FLUX''', LoRA, dan ControlNet. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
==Perintah ringkas yang paling praktis==&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
 &lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 &lt;br /&gt;
 mkdir -p models/checkpoints models/vae models/loras models/controlnet models/text_encoders&lt;br /&gt;
 &lt;br /&gt;
 cd models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
==Setting awal yang aman untuk GPU 12–16 GB==&lt;br /&gt;
&lt;br /&gt;
Untuk '''SDXL''':&lt;br /&gt;
&lt;br /&gt;
* resolusi awal: '''1024x1024'''&lt;br /&gt;
* batch: '''1'''&lt;br /&gt;
* steps: '''20–30'''&lt;br /&gt;
* sampler: mulai dari default workflow dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''Stable Audio Open''':&lt;br /&gt;
&lt;br /&gt;
* mulai dari workflow contoh resmi&lt;br /&gt;
* jangan pasang banyak custom node dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''FLUX''':&lt;br /&gt;
&lt;br /&gt;
* anggap sebagai tahap kedua, bukan model pertama&lt;br /&gt;
&lt;br /&gt;
Yang paling penting: untuk kelas '''5070/5070 Ti''', bottleneck Anda bukan hanya compute, tetapi '''VRAM dan kompleksitas workflow'''. Jadi '''SDXL lebih relevan''' untuk produktivitas awal daripada langsung memaksa '''FLUX'''. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Saya bisa lanjutkan dengan '''panduan satu file bash otomatis''' untuk:&lt;br /&gt;
'''Ubuntu 24.04 + NVIDIA + ComfyUI + SDXL + Stable Audio Open''', supaya tinggal copy-paste.&lt;br /&gt;
&lt;br /&gt;
 [1]: https://www.nvidia.com/en-us/geforce/graphics-cards/50-series/rtx-5070-family/ &amp;quot;GeForce RTX 5070 Family Graphics Cards | NVIDIA&amp;quot;&lt;br /&gt;
 [2]: https://docs.comfy.org/installation/manual_install &amp;quot;How to install ComfyUI manually in different systems - ComfyUI&amp;quot;&lt;br /&gt;
 [3]: https://comfyanonymous.github.io/ComfyUI_examples/audio/ &amp;quot;Audio Examples | ComfyUI_examples&amp;quot;&lt;br /&gt;
 [4]: https://pytorch.org/blog/pytorch-2-7/ &amp;quot;PyTorch 2.7 Release – PyTorch&amp;quot;&lt;br /&gt;
 [5]: https://docs.comfy.org/manager/install &amp;quot;ComfyUI-Manager Installation - ComfyUI&amp;quot;&lt;br /&gt;
 [6]: https://docs.comfy.org/development/core-concepts/models?utm_source=chatgpt.com &amp;quot;Models&amp;quot;&lt;br /&gt;
 [7]: https://docs.comfy.org/get_started/first_generation?utm_source=chatgpt.com &amp;quot;Getting Started with AI Image Generation&amp;quot;&lt;br /&gt;
 [8]: https://huggingface.co/black-forest-labs/FLUX.1-dev &amp;quot;black-forest-labs/FLUX.1-dev · Hugging Face&amp;quot;&lt;br /&gt;
 [9]: https://github.com/diodiogod/TTS-Audio-Suite?utm_source=chatgpt.com &amp;quot;diodiogod/TTS-Audio-Suite: A ComfyUI custom node ...&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73521</id>
		<title>ComfyUI: Instalasi venv GPU</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73521"/>
		<updated>2026-03-25T23:32:15Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Model yang relevan */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Berikut '''panduan lengkap tapi singkat''' untuk '''Ubuntu 24.04 + GPU kelas RTX 5070/5070 Ti''' menjalankan '''ComfyUI''' dengan model '''grafik/gambar''' dan '''audio'''.&lt;br /&gt;
&lt;br /&gt;
Catatan penting dulu: untuk desktop, '''RTX 5070 = 12 GB''', sedangkan '''RTX 5070 Ti = 16 GB'''. Jadi kalau Anda menulis '''5070 16 GB''', besar kemungkinan yang dimaksud adalah '''5070 Ti''', atau GPU laptop kelas 16 GB. Saya buat panduan ini aman untuk '''VRAM 12–16 GB'''. PyTorch 2.7 juga sudah menambahkan dukungan untuk arsitektur '''NVIDIA Blackwell''' dan wheel '''CUDA 12.8''', jadi jalur yang paling masuk akal untuk seri 50 adalah pakai PyTorch baru, bukan stack lama. ([NVIDIA][1])&lt;br /&gt;
&lt;br /&gt;
== Rekomendasi singkat&lt;br /&gt;
&lt;br /&gt;
Untuk '''gambar''', mulai dari '''SDXL''' dulu karena paling stabil untuk 12–16 GB VRAM. ComfyUI sendiri memang dipasang lewat alur '''venv → clone repo → install dependencies → run''', dan model diletakkan di folder `models/...` sesuai tipenya. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
Untuk '''audio''', ComfyUI memang punya jalur resmi contoh '''Stable Audio Open 1.0''', dengan file checkpoint di `models/checkpoints/` dan text encoder di `models/text_encoders/`. Jadi audio bisa, tetapi untuk awal saya sarankan pasang setelah image workflow sudah sehat. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
== 1) Siapkan Ubuntu 24.04==&lt;br /&gt;
&lt;br /&gt;
Update sistem:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
Untuk driver NVIDIA, paling aman di Ubuntu 24.04 adalah pasang '''driver proprietary''' dari '''Software &amp;amp; Updates → Additional Drivers''', lalu reboot. Setelah reboot, cek:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau `nvidia-smi` keluar normal, lanjut.&lt;br /&gt;
&lt;br /&gt;
== 2) Buat virtual environment dan install ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
&lt;br /&gt;
Alur ini sesuai dokumentasi resmi ComfyUI manual install untuk Linux. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 3) Install PyTorch yang cocok untuk RTX 5070 / 5070 Ti==&lt;br /&gt;
&lt;br /&gt;
Karena PyTorch 2.7 menambahkan dukungan Blackwell dan wheel CUDA 12.8, ini yang saya sarankan:&lt;br /&gt;
&lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
&lt;br /&gt;
Lalu install dependensi ComfyUI:&lt;br /&gt;
&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
PyTorch sendiri menyebut 2.7 membawa dukungan Blackwell dan prebuilt wheel CUDA 12.8; ComfyUI di sisi lain memang meminta Anda memasang dependency GPU dulu baru `requirements.txt`. ([PyTorch][4])&lt;br /&gt;
&lt;br /&gt;
== 4) Jalankan ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Kalau ingin bisa diakses dari browser lain di jaringan:&lt;br /&gt;
 &lt;br /&gt;
 python main.py --listen 0.0.0.0&lt;br /&gt;
&lt;br /&gt;
Secara resmi ComfyUI menjalankan aplikasi dengan `python main.py`. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 5) Aktifkan Manager==&lt;br /&gt;
&lt;br /&gt;
Sekarang Manager baru sudah built-in di core, tetapi harus diaktifkan dan dependency-nya diinstall:&lt;br /&gt;
&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi ComfyUI Manager memang menyebut untuk manual install: aktifkan venv, install `manager_requirements.txt`, lalu jalankan dengan `--enable-manager`. ([ComfyUI Documentation][5])&lt;br /&gt;
&lt;br /&gt;
== 6) Folder model yang perlu ada==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/vae&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/loras&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/controlnet&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/text_encoders&lt;br /&gt;
&lt;br /&gt;
ComfyUI menjelaskan model perlu diletakkan di subfolder sesuai tipe, lalu dipilih lewat node loader yang sesuai. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Model yang relevan==&lt;br /&gt;
&lt;br /&gt;
== A. Model grafik / gambar==&lt;br /&gt;
&lt;br /&gt;
=== Pilihan terbaik untuk mulai: '''SDXL Base 1.0'''==&lt;br /&gt;
&lt;br /&gt;
Ini pilihan paling aman untuk GPU 12–16 GB. Cocok untuk text-to-image umum, stabil, dan sangat didukung workflow ComfyUI. ComfyUI “first generation” juga memang mengajarkan pola dasar image generation dengan memilih model di node loader. ([ComfyUI Documentation][7])&lt;br /&gt;
&lt;br /&gt;
Download:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Opsional refiner:&lt;br /&gt;
&lt;br /&gt;
 wget -O sd_xl_refiner_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
=== Kapan pakai '''FLUX.1-dev'''===&lt;br /&gt;
&lt;br /&gt;
FLUX.1-dev resmi tersedia untuk ComfyUI dan merupakan model 12B untuk text-to-image, tetapi akses file-nya mensyaratkan persetujuan lisensi di Hugging Face, dan lisensinya '''non-commercial'''. Di GPU 16 GB dia bisa dicoba, tetapi untuk pengalaman awal saya tetap menyarankan '''SDXL dulu''' karena lebih ringan dan lebih sederhana. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda tetap ingin FLUX:&lt;br /&gt;
&lt;br /&gt;
1. buka halaman model di Hugging Face,&lt;br /&gt;
2. setujui syarat akses,&lt;br /&gt;
3. unduh file yang direkomendasikan untuk ComfyUI,&lt;br /&gt;
4. letakkan di folder model yang diminta workflow/nodenya. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
=== Tambahan yang relevan setelah SDXL jalan===&lt;br /&gt;
&lt;br /&gt;
* '''LoRA''' untuk style/karakter → taruh di `models/loras/`&lt;br /&gt;
* '''ControlNet''' untuk pose/lineart/depth → taruh di `models/controlnet/`&lt;br /&gt;
  ComfyUI memang memisahkan model berdasarkan tipe loader seperti `Load Checkpoint`, `Load LoRA`, dan `Load VAE`. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== B. Model audio==&lt;br /&gt;
&lt;br /&gt;
=== Pilihan paling relevan di ComfyUI: '''Stable Audio Open 1.0'''===&lt;br /&gt;
&lt;br /&gt;
ComfyUI punya contoh audio resmi untuk '''Stable Audio Open 1.0'''. Yang dibutuhkan:&lt;br /&gt;
&lt;br /&gt;
* `stable_audio_open_1.0.safetensors` → `models/checkpoints/`&lt;br /&gt;
* `t5_base.safetensors` → `models/text_encoders/` ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
Struktur akhirnya:&lt;br /&gt;
&lt;br /&gt;
 ~/AI/ComfyUI/models/checkpoints/stable_audio_open_1.0.safetensors&lt;br /&gt;
 ~/AI/ComfyUI/models/text_encoders/t5_base.safetensors&lt;br /&gt;
&lt;br /&gt;
Workflow audio resminya bisa di-load dari contoh audio ComfyUI. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
=== Kalau butuh TTS / voice===&lt;br /&gt;
&lt;br /&gt;
Untuk TTS, ComfyUI bisa diperluas dengan custom node seperti '''TTS-Audio-Suite''', yang menggabungkan beberapa engine TTS dan voice conversion. Namun ini lebih cocok setelah instalasi dasar Anda stabil, karena custom node berarti tambahan dependency. Secara resmi instal custom node di ComfyUI memang selalu dua langkah: clone ke `custom_nodes` lalu install dependensi Python-nya. ([GitHub][9])&lt;br /&gt;
&lt;br /&gt;
==Urutan instalasi yang saya sarankan==&lt;br /&gt;
&lt;br /&gt;
1. Pasang driver NVIDIA, pastikan `nvidia-smi` normal.&lt;br /&gt;
2. Install '''ComfyUI + PyTorch 2.7 cu128'''. ([PyTorch][4])&lt;br /&gt;
3. Aktifkan '''Manager'''. ([ComfyUI Documentation][5])&lt;br /&gt;
4. Download '''SDXL Base 1.0''' dulu.&lt;br /&gt;
5. Tes generate gambar pertama.&lt;br /&gt;
6. Baru tambahkan '''Stable Audio Open 1.0''' untuk audio. ([Comfy Anonymous][3])&lt;br /&gt;
7. Setelah semuanya stabil, baru eksperimen '''FLUX''', LoRA, dan ControlNet. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
==Perintah ringkas yang paling praktis==&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
 &lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 &lt;br /&gt;
 mkdir -p models/checkpoints models/vae models/loras models/controlnet models/text_encoders&lt;br /&gt;
 &lt;br /&gt;
 cd models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
==Setting awal yang aman untuk GPU 12–16 GB==&lt;br /&gt;
&lt;br /&gt;
Untuk '''SDXL''':&lt;br /&gt;
&lt;br /&gt;
* resolusi awal: '''1024x1024'''&lt;br /&gt;
* batch: '''1'''&lt;br /&gt;
* steps: '''20–30'''&lt;br /&gt;
* sampler: mulai dari default workflow dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''Stable Audio Open''':&lt;br /&gt;
&lt;br /&gt;
* mulai dari workflow contoh resmi&lt;br /&gt;
* jangan pasang banyak custom node dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''FLUX''':&lt;br /&gt;
&lt;br /&gt;
* anggap sebagai tahap kedua, bukan model pertama&lt;br /&gt;
&lt;br /&gt;
Yang paling penting: untuk kelas '''5070/5070 Ti''', bottleneck Anda bukan hanya compute, tetapi '''VRAM dan kompleksitas workflow'''. Jadi '''SDXL lebih relevan''' untuk produktivitas awal daripada langsung memaksa '''FLUX'''. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Saya bisa lanjutkan dengan '''panduan satu file bash otomatis''' untuk:&lt;br /&gt;
'''Ubuntu 24.04 + NVIDIA + ComfyUI + SDXL + Stable Audio Open''', supaya tinggal copy-paste.&lt;br /&gt;
&lt;br /&gt;
 [1]: https://www.nvidia.com/en-us/geforce/graphics-cards/50-series/rtx-5070-family/ &amp;quot;GeForce RTX 5070 Family Graphics Cards | NVIDIA&amp;quot;&lt;br /&gt;
 [2]: https://docs.comfy.org/installation/manual_install &amp;quot;How to install ComfyUI manually in different systems - ComfyUI&amp;quot;&lt;br /&gt;
 [3]: https://comfyanonymous.github.io/ComfyUI_examples/audio/ &amp;quot;Audio Examples | ComfyUI_examples&amp;quot;&lt;br /&gt;
 [4]: https://pytorch.org/blog/pytorch-2-7/ &amp;quot;PyTorch 2.7 Release – PyTorch&amp;quot;&lt;br /&gt;
 [5]: https://docs.comfy.org/manager/install &amp;quot;ComfyUI-Manager Installation - ComfyUI&amp;quot;&lt;br /&gt;
 [6]: https://docs.comfy.org/development/core-concepts/models?utm_source=chatgpt.com &amp;quot;Models&amp;quot;&lt;br /&gt;
 [7]: https://docs.comfy.org/get_started/first_generation?utm_source=chatgpt.com &amp;quot;Getting Started with AI Image Generation&amp;quot;&lt;br /&gt;
 [8]: https://huggingface.co/black-forest-labs/FLUX.1-dev &amp;quot;black-forest-labs/FLUX.1-dev · Hugging Face&amp;quot;&lt;br /&gt;
 [9]: https://github.com/diodiogod/TTS-Audio-Suite?utm_source=chatgpt.com &amp;quot;diodiogod/TTS-Audio-Suite: A ComfyUI custom node ...&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73520</id>
		<title>ComfyUI: Instalasi venv GPU</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv_GPU&amp;diff=73520"/>
		<updated>2026-03-25T23:26:35Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;Berikut '''panduan lengkap tapi singkat''' untuk '''Ubuntu 24.04 + GPU kelas RTX 5070/5070 Ti''' menjalankan '''ComfyUI''' dengan model '''grafik/gambar''' dan '''audio'''.  C...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Berikut '''panduan lengkap tapi singkat''' untuk '''Ubuntu 24.04 + GPU kelas RTX 5070/5070 Ti''' menjalankan '''ComfyUI''' dengan model '''grafik/gambar''' dan '''audio'''.&lt;br /&gt;
&lt;br /&gt;
Catatan penting dulu: untuk desktop, '''RTX 5070 = 12 GB''', sedangkan '''RTX 5070 Ti = 16 GB'''. Jadi kalau Anda menulis '''5070 16 GB''', besar kemungkinan yang dimaksud adalah '''5070 Ti''', atau GPU laptop kelas 16 GB. Saya buat panduan ini aman untuk '''VRAM 12–16 GB'''. PyTorch 2.7 juga sudah menambahkan dukungan untuk arsitektur '''NVIDIA Blackwell''' dan wheel '''CUDA 12.8''', jadi jalur yang paling masuk akal untuk seri 50 adalah pakai PyTorch baru, bukan stack lama. ([NVIDIA][1])&lt;br /&gt;
&lt;br /&gt;
== Rekomendasi singkat&lt;br /&gt;
&lt;br /&gt;
Untuk '''gambar''', mulai dari '''SDXL''' dulu karena paling stabil untuk 12–16 GB VRAM. ComfyUI sendiri memang dipasang lewat alur '''venv → clone repo → install dependencies → run''', dan model diletakkan di folder `models/...` sesuai tipenya. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
Untuk '''audio''', ComfyUI memang punya jalur resmi contoh '''Stable Audio Open 1.0''', dengan file checkpoint di `models/checkpoints/` dan text encoder di `models/text_encoders/`. Jadi audio bisa, tetapi untuk awal saya sarankan pasang setelah image workflow sudah sehat. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
== 1) Siapkan Ubuntu 24.04==&lt;br /&gt;
&lt;br /&gt;
Update sistem:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
Untuk driver NVIDIA, paling aman di Ubuntu 24.04 adalah pasang '''driver proprietary''' dari '''Software &amp;amp; Updates → Additional Drivers''', lalu reboot. Setelah reboot, cek:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau `nvidia-smi` keluar normal, lanjut.&lt;br /&gt;
&lt;br /&gt;
== 2) Buat virtual environment dan install ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
&lt;br /&gt;
Alur ini sesuai dokumentasi resmi ComfyUI manual install untuk Linux. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 3) Install PyTorch yang cocok untuk RTX 5070 / 5070 Ti==&lt;br /&gt;
&lt;br /&gt;
Karena PyTorch 2.7 menambahkan dukungan Blackwell dan wheel CUDA 12.8, ini yang saya sarankan:&lt;br /&gt;
&lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
&lt;br /&gt;
Lalu install dependensi ComfyUI:&lt;br /&gt;
&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
PyTorch sendiri menyebut 2.7 membawa dukungan Blackwell dan prebuilt wheel CUDA 12.8; ComfyUI di sisi lain memang meminta Anda memasang dependency GPU dulu baru `requirements.txt`. ([PyTorch][4])&lt;br /&gt;
&lt;br /&gt;
== 4) Jalankan ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Kalau ingin bisa diakses dari browser lain di jaringan:&lt;br /&gt;
 &lt;br /&gt;
 python main.py --listen 0.0.0.0&lt;br /&gt;
&lt;br /&gt;
Secara resmi ComfyUI menjalankan aplikasi dengan `python main.py`. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 5) Aktifkan Manager==&lt;br /&gt;
&lt;br /&gt;
Sekarang Manager baru sudah built-in di core, tetapi harus diaktifkan dan dependency-nya diinstall:&lt;br /&gt;
&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi ComfyUI Manager memang menyebut untuk manual install: aktifkan venv, install `manager_requirements.txt`, lalu jalankan dengan `--enable-manager`. ([ComfyUI Documentation][5])&lt;br /&gt;
&lt;br /&gt;
== 6) Folder model yang perlu ada==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/vae&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/loras&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/controlnet&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/text_encoders&lt;br /&gt;
&lt;br /&gt;
ComfyUI menjelaskan model perlu diletakkan di subfolder sesuai tipe, lalu dipilih lewat node loader yang sesuai. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Model yang relevan==&lt;br /&gt;
&lt;br /&gt;
== A. Model grafik / gambar&lt;br /&gt;
&lt;br /&gt;
=== Pilihan terbaik untuk mulai: '''SDXL Base 1.0'''&lt;br /&gt;
&lt;br /&gt;
Ini pilihan paling aman untuk GPU 12–16 GB. Cocok untuk text-to-image umum, stabil, dan sangat didukung workflow ComfyUI. ComfyUI “first generation” juga memang mengajarkan pola dasar image generation dengan memilih model di node loader. ([ComfyUI Documentation][7])&lt;br /&gt;
&lt;br /&gt;
Download:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Opsional refiner:&lt;br /&gt;
&lt;br /&gt;
 wget -O sd_xl_refiner_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
=== Kapan pakai '''FLUX.1-dev'''&lt;br /&gt;
&lt;br /&gt;
FLUX.1-dev resmi tersedia untuk ComfyUI dan merupakan model 12B untuk text-to-image, tetapi akses file-nya mensyaratkan persetujuan lisensi di Hugging Face, dan lisensinya '''non-commercial'''. Di GPU 16 GB dia bisa dicoba, tetapi untuk pengalaman awal saya tetap menyarankan '''SDXL dulu''' karena lebih ringan dan lebih sederhana. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda tetap ingin FLUX:&lt;br /&gt;
&lt;br /&gt;
1. buka halaman model di Hugging Face,&lt;br /&gt;
2. setujui syarat akses,&lt;br /&gt;
3. unduh file yang direkomendasikan untuk ComfyUI,&lt;br /&gt;
4. letakkan di folder model yang diminta workflow/nodenya. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
=== Tambahan yang relevan setelah SDXL jalan&lt;br /&gt;
&lt;br /&gt;
* '''LoRA''' untuk style/karakter → taruh di `models/loras/`&lt;br /&gt;
* '''ControlNet''' untuk pose/lineart/depth → taruh di `models/controlnet/`&lt;br /&gt;
  ComfyUI memang memisahkan model berdasarkan tipe loader seperti `Load Checkpoint`, `Load LoRA`, dan `Load VAE`. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== B. Model audio&lt;br /&gt;
&lt;br /&gt;
=== Pilihan paling relevan di ComfyUI: '''Stable Audio Open 1.0'''&lt;br /&gt;
&lt;br /&gt;
ComfyUI punya contoh audio resmi untuk '''Stable Audio Open 1.0'''. Yang dibutuhkan:&lt;br /&gt;
&lt;br /&gt;
* `stable_audio_open_1.0.safetensors` → `models/checkpoints/`&lt;br /&gt;
* `t5_base.safetensors` → `models/text_encoders/` ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
Struktur akhirnya:&lt;br /&gt;
&lt;br /&gt;
 ~/AI/ComfyUI/models/checkpoints/stable_audio_open_1.0.safetensors&lt;br /&gt;
 ~/AI/ComfyUI/models/text_encoders/t5_base.safetensors&lt;br /&gt;
&lt;br /&gt;
Workflow audio resminya bisa di-load dari contoh audio ComfyUI. ([Comfy Anonymous][3])&lt;br /&gt;
&lt;br /&gt;
=== Kalau butuh TTS / voice&lt;br /&gt;
&lt;br /&gt;
Untuk TTS, ComfyUI bisa diperluas dengan custom node seperti '''TTS-Audio-Suite''', yang menggabungkan beberapa engine TTS dan voice conversion. Namun ini lebih cocok setelah instalasi dasar Anda stabil, karena custom node berarti tambahan dependency. Secara resmi instal custom node di ComfyUI memang selalu dua langkah: clone ke `custom_nodes` lalu install dependensi Python-nya. ([GitHub][9])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Urutan instalasi yang saya sarankan==&lt;br /&gt;
&lt;br /&gt;
1. Pasang driver NVIDIA, pastikan `nvidia-smi` normal.&lt;br /&gt;
2. Install '''ComfyUI + PyTorch 2.7 cu128'''. ([PyTorch][4])&lt;br /&gt;
3. Aktifkan '''Manager'''. ([ComfyUI Documentation][5])&lt;br /&gt;
4. Download '''SDXL Base 1.0''' dulu.&lt;br /&gt;
5. Tes generate gambar pertama.&lt;br /&gt;
6. Baru tambahkan '''Stable Audio Open 1.0''' untuk audio. ([Comfy Anonymous][3])&lt;br /&gt;
7. Setelah semuanya stabil, baru eksperimen '''FLUX''', LoRA, dan ControlNet. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
==Perintah ringkas yang paling praktis==&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
 sudo apt install -y git python3 python3-venv python3-pip build-essential&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 &lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
 &lt;br /&gt;
 pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
 pip install -r manager_requirements.txt&lt;br /&gt;
 &lt;br /&gt;
 mkdir -p models/checkpoints models/vae models/loras models/controlnet models/text_encoders&lt;br /&gt;
 &lt;br /&gt;
 cd models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 python main.py --enable-manager&lt;br /&gt;
&lt;br /&gt;
==Setting awal yang aman untuk GPU 12–16 GB==&lt;br /&gt;
&lt;br /&gt;
Untuk '''SDXL''':&lt;br /&gt;
&lt;br /&gt;
* resolusi awal: '''1024x1024'''&lt;br /&gt;
* batch: '''1'''&lt;br /&gt;
* steps: '''20–30'''&lt;br /&gt;
* sampler: mulai dari default workflow dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''Stable Audio Open''':&lt;br /&gt;
&lt;br /&gt;
* mulai dari workflow contoh resmi&lt;br /&gt;
* jangan pasang banyak custom node dulu&lt;br /&gt;
&lt;br /&gt;
Untuk '''FLUX''':&lt;br /&gt;
&lt;br /&gt;
* anggap sebagai tahap kedua, bukan model pertama&lt;br /&gt;
&lt;br /&gt;
Yang paling penting: untuk kelas '''5070/5070 Ti''', bottleneck Anda bukan hanya compute, tetapi '''VRAM dan kompleksitas workflow'''. Jadi '''SDXL lebih relevan''' untuk produktivitas awal daripada langsung memaksa '''FLUX'''. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Saya bisa lanjutkan dengan '''panduan satu file bash otomatis''' untuk:&lt;br /&gt;
'''Ubuntu 24.04 + NVIDIA + ComfyUI + SDXL + Stable Audio Open''', supaya tinggal copy-paste.&lt;br /&gt;
&lt;br /&gt;
 [1]: https://www.nvidia.com/en-us/geforce/graphics-cards/50-series/rtx-5070-family/ &amp;quot;GeForce RTX 5070 Family Graphics Cards | NVIDIA&amp;quot;&lt;br /&gt;
 [2]: https://docs.comfy.org/installation/manual_install &amp;quot;How to install ComfyUI manually in different systems - ComfyUI&amp;quot;&lt;br /&gt;
 [3]: https://comfyanonymous.github.io/ComfyUI_examples/audio/ &amp;quot;Audio Examples | ComfyUI_examples&amp;quot;&lt;br /&gt;
 [4]: https://pytorch.org/blog/pytorch-2-7/ &amp;quot;PyTorch 2.7 Release – PyTorch&amp;quot;&lt;br /&gt;
 [5]: https://docs.comfy.org/manager/install &amp;quot;ComfyUI-Manager Installation - ComfyUI&amp;quot;&lt;br /&gt;
 [6]: https://docs.comfy.org/development/core-concepts/models?utm_source=chatgpt.com &amp;quot;Models&amp;quot;&lt;br /&gt;
 [7]: https://docs.comfy.org/get_started/first_generation?utm_source=chatgpt.com &amp;quot;Getting Started with AI Image Generation&amp;quot;&lt;br /&gt;
 [8]: https://huggingface.co/black-forest-labs/FLUX.1-dev &amp;quot;black-forest-labs/FLUX.1-dev · Hugging Face&amp;quot;&lt;br /&gt;
 [9]: https://github.com/diodiogod/TTS-Audio-Suite?utm_source=chatgpt.com &amp;quot;diodiogod/TTS-Audio-Suite: A ComfyUI custom node ...&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73519</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73519"/>
		<updated>2026-03-25T23:26:19Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* ComfyUI */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop pull ollama model]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==ComfyUI==&lt;br /&gt;
&lt;br /&gt;
* [[ComfyUI: instalasi]]&lt;br /&gt;
* [[ComfyUI: Instalasi venv]]&lt;br /&gt;
* [[ComfyUI: Instalasi venv GPU]]&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv&amp;diff=73518</id>
		<title>ComfyUI: Instalasi venv</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv&amp;diff=73518"/>
		<updated>2026-03-25T23:23:28Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* 16) Paket perintah singkat yang langsung jalan */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Berikut cara yang paling aman dan rapi untuk '''instal ComfyUI di Ubuntu 24.04''', lalu '''menaruh model gambar''' seperti '''SDXL''', '''LoRA''', dan opsi '''FLUX'''.&lt;br /&gt;
&lt;br /&gt;
Saya sarankan jalur '''Python virtual environment (`venv`)''' karena ini memang selaras dengan dokumentasi resmi ComfyUI untuk Linux: buat venv, clone repo, install dependensi, lalu jalankan. ComfyUI juga punya `comfy-cli`, tetapi untuk Ubuntu server/desktop saya lebih suka langkah manual karena lebih mudah di-debug. ([ComfyUI Documentation][1])&lt;br /&gt;
&lt;br /&gt;
== 1) Siapkan sistem==&lt;br /&gt;
&lt;br /&gt;
Update paket dulu:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
&lt;br /&gt;
Install paket dasar:&lt;br /&gt;
&lt;br /&gt;
 sudo apt install -y python3 python3-venv python3-pip git&lt;br /&gt;
&lt;br /&gt;
Ini konsisten dengan prasyarat Linux + venv yang dicantumkan pada dokumentasi ComfyUI Manager/CLI. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 2) Buat folder kerja dan virtual environment==&lt;br /&gt;
&lt;br /&gt;
Contoh saya simpan di home user:&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
&lt;br /&gt;
Lalu upgrade `pip`:&lt;br /&gt;
&lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
&lt;br /&gt;
== 3) Clone ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
&lt;br /&gt;
Repo resmi ComfyUI memang dijalankan dari source dengan `python main.py` setelah dependensi terpasang. ([GitHub][3])&lt;br /&gt;
&lt;br /&gt;
== 4) Install dependensi Python==&lt;br /&gt;
&lt;br /&gt;
Dengan venv masih aktif:&lt;br /&gt;
&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
Lalu jalankan:&lt;br /&gt;
&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi ComfyUI menyebut alur manual Linux sebagai: '''buat venv → clone repo → install dependencies → start ComfyUI'''. ([ComfyUI Documentation][1])&lt;br /&gt;
&lt;br /&gt;
Secara default nanti ComfyUI biasanya terbuka di:&lt;br /&gt;
&lt;br /&gt;
http://127.0.0.1:8188&lt;br /&gt;
&lt;br /&gt;
== 5) Kalau ingin akses dari komputer lain di jaringan==&lt;br /&gt;
&lt;br /&gt;
Jalankan begini:&lt;br /&gt;
&lt;br /&gt;
 python main.py --listen 0.0.0.0&lt;br /&gt;
&lt;br /&gt;
Lalu akses dari browser:&lt;br /&gt;
&lt;br /&gt;
 http://IP_UBUNTU_ANDA:8188&lt;br /&gt;
&lt;br /&gt;
== 6) Struktur folder model di ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Ini bagian yang paling penting. Dokumentasi ComfyUI menjelaskan bahwa model harus diletakkan di subfolder yang sesuai di dalam direktori `models/`, dan node loader akan membacanya dari sana. Loader checkpoint bawaan secara otomatis membaca model dari `ComfyUI/models/checkpoints`, dan dokumen troubleshooting resmi juga merinci folder penting lain seperti `vae`, `loras`, `controlnet`, dan `embeddings`. ([ComfyUI Documentation][4])&lt;br /&gt;
&lt;br /&gt;
Folder yang umum dipakai:&lt;br /&gt;
&lt;br /&gt;
 ComfyUI/models/checkpoints/&lt;br /&gt;
 ComfyUI/models/vae/&lt;br /&gt;
 ComfyUI/models/loras/&lt;br /&gt;
 ComfyUI/models/controlnet/&lt;br /&gt;
 ComfyUI/models/embeddings/&lt;br /&gt;
&lt;br /&gt;
Buat semuanya sekalian:&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/vae&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/loras&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/controlnet&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/embeddings&lt;br /&gt;
&lt;br /&gt;
== 7) Install model gambar paling aman untuk mulai: SDXL&lt;br /&gt;
&lt;br /&gt;
Untuk pemula, saya sarankan mulai dari '''SDXL base 1.0''' karena stabil, ekosistem luas, dan mudah dipakai di ComfyUI. Model card resmi Stability AI menyebut performa SDXL base lebih baik dari generasi sebelumnya, dan kombinasi dengan refiner memberi hasil terbaik secara keseluruhan. File `sd_xl_base_1.0.safetensors` juga tersedia di Hugging Face. ([Hugging Face][5])&lt;br /&gt;
&lt;br /&gt;
===Download SDXL base===&lt;br /&gt;
&lt;br /&gt;
Pindah ke folder checkpoints:&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
&lt;br /&gt;
Download dengan `wget` atau `curl`. Karena Hugging Face kadang butuh redirect, `wget` biasanya lebih enak:&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
Opsional, kalau ingin refiner juga:&lt;br /&gt;
&lt;br /&gt;
 wget -O sd_xl_refiner_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Setelah file selesai, restart ComfyUI bila sedang berjalan. Dokumentasi resmi menyebut restart atau refresh bisa diperlukan agar model baru terbaca. ([ComfyUI Documentation][4])&lt;br /&gt;
&lt;br /&gt;
==8) Cara pakai model SDXL di ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Di UI:&lt;br /&gt;
&lt;br /&gt;
* buka workflow dasar text-to-image&lt;br /&gt;
* tambahkan node '''Load Checkpoint'''&lt;br /&gt;
* pilih `sd_xl_base_1.0.safetensors`&lt;br /&gt;
* sambungkan ke sampler dan save image&lt;br /&gt;
* klik '''Queue'''&lt;br /&gt;
&lt;br /&gt;
Dokumentasi “first generation” ComfyUI juga menunjukkan pola dasar yang sama: pilih model di node '''Load Checkpoint''', lalu jalankan workflow. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
== 9) Install LoRA==&lt;br /&gt;
&lt;br /&gt;
LoRA harus masuk ke folder:&lt;br /&gt;
&lt;br /&gt;
 ComfyUI/models/loras/&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi tutorial LoRA ComfyUI memang menjelaskan penggunaan model LoRA melalui node loader LoRA, setelah model dipasang di folder model yang sesuai. ([ComfyUI Documentation][7])&lt;br /&gt;
&lt;br /&gt;
Contoh:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/loras&lt;br /&gt;
 wget -O nama-lora.safetensors &amp;quot;URL_LANGSUNG_FILE_LORA&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Lalu di ComfyUI:&lt;br /&gt;
&lt;br /&gt;
* tambahkan node '''Load LoRA'''&lt;br /&gt;
* pilih file LoRA&lt;br /&gt;
* hubungkan output model/clip dari checkpoint ke node LoRA&lt;br /&gt;
* atur strength&lt;br /&gt;
&lt;br /&gt;
== 10) Install VAE tambahan==&lt;br /&gt;
&lt;br /&gt;
Kalau model Anda butuh VAE terpisah, letakkan di:&lt;br /&gt;
&lt;br /&gt;
 ComfyUI/models/vae/&lt;br /&gt;
&lt;br /&gt;
Contoh:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/vae&lt;br /&gt;
 wget -O nama-vae.safetensors &amp;quot;URL_LANGSUNG_FILE_VAE&amp;quot;&lt;br /&gt;
&lt;br /&gt;
== 11) Install FLUX di ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Untuk '''FLUX''', model card resmi Hugging Face dari Black Forest Labs menyebut ada bagian penggunaan untuk ComfyUI. FLUX.1 [dev] adalah model 12B open-weight untuk text-to-image. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Tetapi ada catatan penting:&lt;br /&gt;
&lt;br /&gt;
* '''FLUX lebih berat''' daripada SDXL&lt;br /&gt;
* sering butuh workflow/nodes yang lebih spesifik&lt;br /&gt;
* pada GPU kecil, pengalaman bisa kurang nyaman&lt;br /&gt;
* untuk banyak pengguna Ubuntu rumahan, '''SDXL lebih aman untuk awal'''&lt;br /&gt;
&lt;br /&gt;
Kalau tetap ingin FLUX, biasanya yang dicari adalah file model `.safetensors` yang sesuai workflow ComfyUI, lalu diletakkan di folder model yang relevan. Untuk pemakaian praktis di mesin terbatas, banyak pengguna memilih varian '''FP8''' komunitas, tetapi itu bukan sumber resmi Black Forest Labs. Jadi untuk instalasi awal saya lebih menyarankan: '''mulai dari SDXL dulu, baru FLUX setelah ComfyUI sudah sehat'''. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
== 12) Install ComfyUI Manager==&lt;br /&gt;
&lt;br /&gt;
Ini sangat membantu untuk cari dan pasang custom nodes. Repo resmi menyebut ComfyUI-Manager dipakai untuk mengelola instal, hapus, aktif/nonaktif berbagai custom nodes, dan dokumentasi ComfyUI juga menyebut Manager dapat membantu mengotomatisasi pencarian, download, dan instal model. ([GitHub][9])&lt;br /&gt;
&lt;br /&gt;
Pasang dengan:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/custom_nodes&lt;br /&gt;
 git clone https://github.com/Comfy-Org/ComfyUI-Manager.git&lt;br /&gt;
&lt;br /&gt;
Lalu install dependensinya dari venv aktif:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 source ~/AI/comfyui-venv/bin/activate&lt;br /&gt;
 pip install -r custom_nodes/ComfyUI-Manager/requirements.txt&lt;br /&gt;
&lt;br /&gt;
Restart ComfyUI.&lt;br /&gt;
&lt;br /&gt;
== 13) Update ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi update menyarankan:&lt;br /&gt;
&lt;br /&gt;
* aktifkan venv&lt;br /&gt;
* `git pull`&lt;br /&gt;
* update dependencies bila perlu. ([ComfyUI Documentation][10])&lt;br /&gt;
&lt;br /&gt;
Perintahnya:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 source ~/AI/comfyui-venv/bin/activate&lt;br /&gt;
 git pull&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
== 14) Error yang paling sering terjadi==&lt;br /&gt;
&lt;br /&gt;
=== Model tidak muncul===&lt;br /&gt;
&lt;br /&gt;
Biasanya karena:&lt;br /&gt;
&lt;br /&gt;
* file salah folder&lt;br /&gt;
* nama file belum selesai download&lt;br /&gt;
* ComfyUI belum di-restart&lt;br /&gt;
* model tidak cocok dengan node/workflow&lt;br /&gt;
&lt;br /&gt;
Dokumentasi troubleshooting resmi memang menekankan cek subfolder model yang benar dan kompatibilitas arsitektur. ([ComfyUI Documentation][11])&lt;br /&gt;
&lt;br /&gt;
===CUDA out of memory===&lt;br /&gt;
&lt;br /&gt;
Artinya VRAM GPU kurang. Solusinya:&lt;br /&gt;
&lt;br /&gt;
* mulai dari '''SDXL''' dulu, bukan FLUX&lt;br /&gt;
* kecilkan resolusi&lt;br /&gt;
* tutup aplikasi lain yang pakai GPU&lt;br /&gt;
* hindari workflow berat&lt;br /&gt;
&lt;br /&gt;
===`No module named ...`===&lt;br /&gt;
&lt;br /&gt;
Biasanya dari custom node. Dokumentasi resmi custom node menyebut instalasinya memang dua langkah: clone ke `custom_nodes` lalu install dependensi Python yang dibutuhkan. ([ComfyUI Documentation][12])&lt;br /&gt;
&lt;br /&gt;
== 15) Rekomendasi urutan terbaik==&lt;br /&gt;
&lt;br /&gt;
Saya sarankan urutan ini:&lt;br /&gt;
&lt;br /&gt;
1. Install '''ComfyUI'''&lt;br /&gt;
2. Install '''SDXL base'''&lt;br /&gt;
3. Tes generate gambar pertama&lt;br /&gt;
4. Install '''ComfyUI Manager'''&lt;br /&gt;
5. Tambahkan '''LoRA'''&lt;br /&gt;
6. Setelah stabil, baru coba '''FLUX'''&lt;br /&gt;
&lt;br /&gt;
== 16) Paket perintah singkat yang langsung jalan==&lt;br /&gt;
&lt;br /&gt;
Kalau mau yang ringkas:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt install -y python3 python3-venv python3-pip git&lt;br /&gt;
 &lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 &lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
 &lt;br /&gt;
 mkdir -p models/checkpoints models/vae models/loras models/controlnet models/embeddings&lt;br /&gt;
 &lt;br /&gt;
 cd models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Kalau Anda mau, saya bisa lanjutkan dengan '''panduan lengkap NVIDIA driver + CUDA + PyTorch untuk Ubuntu 24.04''', atau saya buatkan '''skrip bash otomatis''' untuk instal '''ComfyUI + SDXL + Manager''' sekali jalan.&lt;br /&gt;
&lt;br /&gt;
 [1]: https://docs.comfy.org/installation/manual_install?utm_source=chatgpt.com &amp;quot;How to install ComfyUI manually in different systems&amp;quot;&lt;br /&gt;
 [2]: https://docs.comfy.org/manager/install?utm_source=chatgpt.com &amp;quot;ComfyUI-Manager Installation&amp;quot;&lt;br /&gt;
 [3]: https://github.com/comfy-org/ComfyUI?utm_source=chatgpt.com &amp;quot;Comfy-Org/ComfyUI: The most powerful and modular ...&amp;quot;&lt;br /&gt;
 [4]: https://docs.comfy.org/development/core-concepts/models?utm_source=chatgpt.com &amp;quot;Models&amp;quot;&lt;br /&gt;
 [5]: https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0?utm_source=chatgpt.com &amp;quot;stabilityai/stable-diffusion-xl-base-1.0&amp;quot;&lt;br /&gt;
 [6]: https://docs.comfy.org/get_started/first_generation?utm_source=chatgpt.com &amp;quot;Getting Started with AI Image Generation&amp;quot;&lt;br /&gt;
 [7]: https://docs.comfy.org/tutorials/basic/lora?utm_source=chatgpt.com &amp;quot;ComfyUI LoRA Example&amp;quot;&lt;br /&gt;
 [8]: https://huggingface.co/black-forest-labs/FLUX.1-dev?utm_source=chatgpt.com &amp;quot;black-forest-labs/FLUX.1-dev&amp;quot;&lt;br /&gt;
 [9]: https://github.com/Comfy-Org/ComfyUI-Manager?utm_source=chatgpt.com &amp;quot;ComfyUI-Manager is an extension designed to enhance ...&amp;quot;&lt;br /&gt;
 [10]: https://docs.comfy.org/installation/update_comfyui?utm_source=chatgpt.com &amp;quot;How to Update ComfyUI&amp;quot;&lt;br /&gt;
 [11]: https://docs.comfy.org/troubleshooting/model-issues?utm_source=chatgpt.com &amp;quot;How to Troubleshoot and Solve ComfyUI Model Issues&amp;quot;&lt;br /&gt;
 [12]: https://docs.comfy.org/installation/install_custom_node?utm_source=chatgpt.com &amp;quot;How to Install Custom Nodes in ComfyUI&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv&amp;diff=73517</id>
		<title>ComfyUI: Instalasi venv</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ComfyUI:_Instalasi_venv&amp;diff=73517"/>
		<updated>2026-03-25T23:13:09Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;Berikut cara yang paling aman dan rapi untuk '''instal ComfyUI di Ubuntu 24.04''', lalu '''menaruh model gambar''' seperti '''SDXL''', '''LoRA''', dan opsi '''FLUX'''.  Saya s...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Berikut cara yang paling aman dan rapi untuk '''instal ComfyUI di Ubuntu 24.04''', lalu '''menaruh model gambar''' seperti '''SDXL''', '''LoRA''', dan opsi '''FLUX'''.&lt;br /&gt;
&lt;br /&gt;
Saya sarankan jalur '''Python virtual environment (`venv`)''' karena ini memang selaras dengan dokumentasi resmi ComfyUI untuk Linux: buat venv, clone repo, install dependensi, lalu jalankan. ComfyUI juga punya `comfy-cli`, tetapi untuk Ubuntu server/desktop saya lebih suka langkah manual karena lebih mudah di-debug. ([ComfyUI Documentation][1])&lt;br /&gt;
&lt;br /&gt;
== 1) Siapkan sistem==&lt;br /&gt;
&lt;br /&gt;
Update paket dulu:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt upgrade -y&lt;br /&gt;
&lt;br /&gt;
Install paket dasar:&lt;br /&gt;
&lt;br /&gt;
 sudo apt install -y python3 python3-venv python3-pip git&lt;br /&gt;
&lt;br /&gt;
Ini konsisten dengan prasyarat Linux + venv yang dicantumkan pada dokumentasi ComfyUI Manager/CLI. ([ComfyUI Documentation][2])&lt;br /&gt;
&lt;br /&gt;
== 2) Buat folder kerja dan virtual environment==&lt;br /&gt;
&lt;br /&gt;
Contoh saya simpan di home user:&lt;br /&gt;
&lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
&lt;br /&gt;
Lalu upgrade `pip`:&lt;br /&gt;
&lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
&lt;br /&gt;
== 3) Clone ComfyUI==&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI&lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
&lt;br /&gt;
Repo resmi ComfyUI memang dijalankan dari source dengan `python main.py` setelah dependensi terpasang. ([GitHub][3])&lt;br /&gt;
&lt;br /&gt;
== 4) Install dependensi Python==&lt;br /&gt;
&lt;br /&gt;
Dengan venv masih aktif:&lt;br /&gt;
&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
Lalu jalankan:&lt;br /&gt;
&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi ComfyUI menyebut alur manual Linux sebagai: '''buat venv → clone repo → install dependencies → start ComfyUI'''. ([ComfyUI Documentation][1])&lt;br /&gt;
&lt;br /&gt;
Secara default nanti ComfyUI biasanya terbuka di:&lt;br /&gt;
&lt;br /&gt;
http://127.0.0.1:8188&lt;br /&gt;
&lt;br /&gt;
== 5) Kalau ingin akses dari komputer lain di jaringan==&lt;br /&gt;
&lt;br /&gt;
Jalankan begini:&lt;br /&gt;
&lt;br /&gt;
 python main.py --listen 0.0.0.0&lt;br /&gt;
&lt;br /&gt;
Lalu akses dari browser:&lt;br /&gt;
&lt;br /&gt;
 http://IP_UBUNTU_ANDA:8188&lt;br /&gt;
&lt;br /&gt;
== 6) Struktur folder model di ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Ini bagian yang paling penting. Dokumentasi ComfyUI menjelaskan bahwa model harus diletakkan di subfolder yang sesuai di dalam direktori `models/`, dan node loader akan membacanya dari sana. Loader checkpoint bawaan secara otomatis membaca model dari `ComfyUI/models/checkpoints`, dan dokumen troubleshooting resmi juga merinci folder penting lain seperti `vae`, `loras`, `controlnet`, dan `embeddings`. ([ComfyUI Documentation][4])&lt;br /&gt;
&lt;br /&gt;
Folder yang umum dipakai:&lt;br /&gt;
&lt;br /&gt;
 ComfyUI/models/checkpoints/&lt;br /&gt;
 ComfyUI/models/vae/&lt;br /&gt;
 ComfyUI/models/loras/&lt;br /&gt;
 ComfyUI/models/controlnet/&lt;br /&gt;
 ComfyUI/models/embeddings/&lt;br /&gt;
&lt;br /&gt;
Buat semuanya sekalian:&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/vae&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/loras&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/controlnet&lt;br /&gt;
 mkdir -p ~/AI/ComfyUI/models/embeddings&lt;br /&gt;
&lt;br /&gt;
== 7) Install model gambar paling aman untuk mulai: SDXL&lt;br /&gt;
&lt;br /&gt;
Untuk pemula, saya sarankan mulai dari '''SDXL base 1.0''' karena stabil, ekosistem luas, dan mudah dipakai di ComfyUI. Model card resmi Stability AI menyebut performa SDXL base lebih baik dari generasi sebelumnya, dan kombinasi dengan refiner memberi hasil terbaik secara keseluruhan. File `sd_xl_base_1.0.safetensors` juga tersedia di Hugging Face. ([Hugging Face][5])&lt;br /&gt;
&lt;br /&gt;
===Download SDXL base===&lt;br /&gt;
&lt;br /&gt;
Pindah ke folder checkpoints:&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI/models/checkpoints&lt;br /&gt;
&lt;br /&gt;
Download dengan `wget` atau `curl`. Karena Hugging Face kadang butuh redirect, `wget` biasanya lebih enak:&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
Opsional, kalau ingin refiner juga:&lt;br /&gt;
&lt;br /&gt;
 wget -O sd_xl_refiner_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Setelah file selesai, restart ComfyUI bila sedang berjalan. Dokumentasi resmi menyebut restart atau refresh bisa diperlukan agar model baru terbaca. ([ComfyUI Documentation][4])&lt;br /&gt;
&lt;br /&gt;
==8) Cara pakai model SDXL di ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Di UI:&lt;br /&gt;
&lt;br /&gt;
* buka workflow dasar text-to-image&lt;br /&gt;
* tambahkan node '''Load Checkpoint'''&lt;br /&gt;
* pilih `sd_xl_base_1.0.safetensors`&lt;br /&gt;
* sambungkan ke sampler dan save image&lt;br /&gt;
* klik '''Queue'''&lt;br /&gt;
&lt;br /&gt;
Dokumentasi “first generation” ComfyUI juga menunjukkan pola dasar yang sama: pilih model di node '''Load Checkpoint''', lalu jalankan workflow. ([ComfyUI Documentation][6])&lt;br /&gt;
&lt;br /&gt;
== 9) Install LoRA==&lt;br /&gt;
&lt;br /&gt;
LoRA harus masuk ke folder:&lt;br /&gt;
&lt;br /&gt;
 ComfyUI/models/loras/&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi tutorial LoRA ComfyUI memang menjelaskan penggunaan model LoRA melalui node loader LoRA, setelah model dipasang di folder model yang sesuai. ([ComfyUI Documentation][7])&lt;br /&gt;
&lt;br /&gt;
Contoh:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/loras&lt;br /&gt;
 wget -O nama-lora.safetensors &amp;quot;URL_LANGSUNG_FILE_LORA&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Lalu di ComfyUI:&lt;br /&gt;
&lt;br /&gt;
* tambahkan node '''Load LoRA'''&lt;br /&gt;
* pilih file LoRA&lt;br /&gt;
* hubungkan output model/clip dari checkpoint ke node LoRA&lt;br /&gt;
* atur strength&lt;br /&gt;
&lt;br /&gt;
== 10) Install VAE tambahan==&lt;br /&gt;
&lt;br /&gt;
Kalau model Anda butuh VAE terpisah, letakkan di:&lt;br /&gt;
&lt;br /&gt;
 ComfyUI/models/vae/&lt;br /&gt;
&lt;br /&gt;
Contoh:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/models/vae&lt;br /&gt;
 wget -O nama-vae.safetensors &amp;quot;URL_LANGSUNG_FILE_VAE&amp;quot;&lt;br /&gt;
&lt;br /&gt;
== 11) Install FLUX di ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Untuk '''FLUX''', model card resmi Hugging Face dari Black Forest Labs menyebut ada bagian penggunaan untuk ComfyUI. FLUX.1 [dev] adalah model 12B open-weight untuk text-to-image. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
Tetapi ada catatan penting:&lt;br /&gt;
&lt;br /&gt;
* '''FLUX lebih berat''' daripada SDXL&lt;br /&gt;
* sering butuh workflow/nodes yang lebih spesifik&lt;br /&gt;
* pada GPU kecil, pengalaman bisa kurang nyaman&lt;br /&gt;
* untuk banyak pengguna Ubuntu rumahan, '''SDXL lebih aman untuk awal'''&lt;br /&gt;
&lt;br /&gt;
Kalau tetap ingin FLUX, biasanya yang dicari adalah file model `.safetensors` yang sesuai workflow ComfyUI, lalu diletakkan di folder model yang relevan. Untuk pemakaian praktis di mesin terbatas, banyak pengguna memilih varian '''FP8''' komunitas, tetapi itu bukan sumber resmi Black Forest Labs. Jadi untuk instalasi awal saya lebih menyarankan: '''mulai dari SDXL dulu, baru FLUX setelah ComfyUI sudah sehat'''. ([Hugging Face][8])&lt;br /&gt;
&lt;br /&gt;
== 12) Install ComfyUI Manager==&lt;br /&gt;
&lt;br /&gt;
Ini sangat membantu untuk cari dan pasang custom nodes. Repo resmi menyebut ComfyUI-Manager dipakai untuk mengelola instal, hapus, aktif/nonaktif berbagai custom nodes, dan dokumentasi ComfyUI juga menyebut Manager dapat membantu mengotomatisasi pencarian, download, dan instal model. ([GitHub][9])&lt;br /&gt;
&lt;br /&gt;
Pasang dengan:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI/custom_nodes&lt;br /&gt;
 git clone https://github.com/Comfy-Org/ComfyUI-Manager.git&lt;br /&gt;
&lt;br /&gt;
Lalu install dependensinya dari venv aktif:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 source ~/AI/comfyui-venv/bin/activate&lt;br /&gt;
 pip install -r custom_nodes/ComfyUI-Manager/requirements.txt&lt;br /&gt;
&lt;br /&gt;
Restart ComfyUI.&lt;br /&gt;
&lt;br /&gt;
== 13) Update ComfyUI==&lt;br /&gt;
&lt;br /&gt;
Dokumentasi resmi update menyarankan:&lt;br /&gt;
&lt;br /&gt;
* aktifkan venv&lt;br /&gt;
* `git pull`&lt;br /&gt;
* update dependencies bila perlu. ([ComfyUI Documentation][10])&lt;br /&gt;
&lt;br /&gt;
Perintahnya:&lt;br /&gt;
&lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 source ~/AI/comfyui-venv/bin/activate&lt;br /&gt;
 git pull&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
&lt;br /&gt;
== 14) Error yang paling sering terjadi==&lt;br /&gt;
&lt;br /&gt;
=== Model tidak muncul===&lt;br /&gt;
&lt;br /&gt;
Biasanya karena:&lt;br /&gt;
&lt;br /&gt;
* file salah folder&lt;br /&gt;
* nama file belum selesai download&lt;br /&gt;
* ComfyUI belum di-restart&lt;br /&gt;
* model tidak cocok dengan node/workflow&lt;br /&gt;
&lt;br /&gt;
Dokumentasi troubleshooting resmi memang menekankan cek subfolder model yang benar dan kompatibilitas arsitektur. ([ComfyUI Documentation][11])&lt;br /&gt;
&lt;br /&gt;
===CUDA out of memory===&lt;br /&gt;
&lt;br /&gt;
Artinya VRAM GPU kurang. Solusinya:&lt;br /&gt;
&lt;br /&gt;
* mulai dari '''SDXL''' dulu, bukan FLUX&lt;br /&gt;
* kecilkan resolusi&lt;br /&gt;
* tutup aplikasi lain yang pakai GPU&lt;br /&gt;
* hindari workflow berat&lt;br /&gt;
&lt;br /&gt;
===`No module named ...`===&lt;br /&gt;
&lt;br /&gt;
Biasanya dari custom node. Dokumentasi resmi custom node menyebut instalasinya memang dua langkah: clone ke `custom_nodes` lalu install dependensi Python yang dibutuhkan. ([ComfyUI Documentation][12])&lt;br /&gt;
&lt;br /&gt;
== 15) Rekomendasi urutan terbaik==&lt;br /&gt;
&lt;br /&gt;
Saya sarankan urutan ini:&lt;br /&gt;
&lt;br /&gt;
1. Install '''ComfyUI'''&lt;br /&gt;
2. Install '''SDXL base'''&lt;br /&gt;
3. Tes generate gambar pertama&lt;br /&gt;
4. Install '''ComfyUI Manager'''&lt;br /&gt;
5. Tambahkan '''LoRA'''&lt;br /&gt;
6. Setelah stabil, baru coba '''FLUX'''&lt;br /&gt;
&lt;br /&gt;
== 16) Paket perintah singkat yang langsung jalan==&lt;br /&gt;
&lt;br /&gt;
Kalau mau yang ringkas:&lt;br /&gt;
&lt;br /&gt;
 sudo apt update &amp;amp;&amp;amp; sudo apt install -y python3 python3-venv python3-pip git&lt;br /&gt;
 &lt;br /&gt;
 cd ~&lt;br /&gt;
 mkdir -p AI&lt;br /&gt;
 cd AI&lt;br /&gt;
 python3 -m venv comfyui-venv&lt;br /&gt;
 source comfyui-venv/bin/activate&lt;br /&gt;
 pip install --upgrade pip setuptools wheel&lt;br /&gt;
 &lt;br /&gt;
 git clone https://github.com/comfy-org/ComfyUI.git&lt;br /&gt;
 cd ComfyUI&lt;br /&gt;
 pip install -r requirements.txt&lt;br /&gt;
 &lt;br /&gt;
 mkdir -p models/checkpoints models/vae models/loras models/controlnet models/embeddings&lt;br /&gt;
 &lt;br /&gt;
 cd models/checkpoints&lt;br /&gt;
 wget -O sd_xl_base_1.0.safetensors \&lt;br /&gt;
 &amp;quot;https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors?download=true&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 cd ~/AI/ComfyUI&lt;br /&gt;
 python main.py&lt;br /&gt;
&lt;br /&gt;
Kalau Anda mau, saya bisa lanjutkan dengan '''panduan lengkap NVIDIA driver + CUDA + PyTorch untuk Ubuntu 24.04''', atau saya buatkan '''skrip bash otomatis''' untuk instal '''ComfyUI + SDXL + Manager''' sekali jalan.&lt;br /&gt;
&lt;br /&gt;
[1]: https://docs.comfy.org/installation/manual_install?utm_source=chatgpt.com &amp;quot;How to install ComfyUI manually in different systems&amp;quot;&lt;br /&gt;
[2]: https://docs.comfy.org/manager/install?utm_source=chatgpt.com &amp;quot;ComfyUI-Manager Installation&amp;quot;&lt;br /&gt;
[3]: https://github.com/comfy-org/ComfyUI?utm_source=chatgpt.com &amp;quot;Comfy-Org/ComfyUI: The most powerful and modular ...&amp;quot;&lt;br /&gt;
[4]: https://docs.comfy.org/development/core-concepts/models?utm_source=chatgpt.com &amp;quot;Models&amp;quot;&lt;br /&gt;
[5]: https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0?utm_source=chatgpt.com &amp;quot;stabilityai/stable-diffusion-xl-base-1.0&amp;quot;&lt;br /&gt;
[6]: https://docs.comfy.org/get_started/first_generation?utm_source=chatgpt.com &amp;quot;Getting Started with AI Image Generation&amp;quot;&lt;br /&gt;
[7]: https://docs.comfy.org/tutorials/basic/lora?utm_source=chatgpt.com &amp;quot;ComfyUI LoRA Example&amp;quot;&lt;br /&gt;
[8]: https://huggingface.co/black-forest-labs/FLUX.1-dev?utm_source=chatgpt.com &amp;quot;black-forest-labs/FLUX.1-dev&amp;quot;&lt;br /&gt;
[9]: https://github.com/Comfy-Org/ComfyUI-Manager?utm_source=chatgpt.com &amp;quot;ComfyUI-Manager is an extension designed to enhance ...&amp;quot;&lt;br /&gt;
[10]: https://docs.comfy.org/installation/update_comfyui?utm_source=chatgpt.com &amp;quot;How to Update ComfyUI&amp;quot;&lt;br /&gt;
[11]: https://docs.comfy.org/troubleshooting/model-issues?utm_source=chatgpt.com &amp;quot;How to Troubleshoot and Solve ComfyUI Model Issues&amp;quot;&lt;br /&gt;
[12]: https://docs.comfy.org/installation/install_custom_node?utm_source=chatgpt.com &amp;quot;How to Install Custom Nodes in ComfyUI&amp;quot;&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73516</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73516"/>
		<updated>2026-03-25T23:07:06Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* ComfyUI */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop pull ollama model]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==ComfyUI==&lt;br /&gt;
&lt;br /&gt;
* [[ComfyUI: instalasi]]&lt;br /&gt;
* [[ComfyUI: Instalasi venv]]&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73515</id>
		<title>LLM: Ubuntu 24.04 desktop pull ollama model</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73515"/>
		<updated>2026-03-25T23:06:10Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
 # embedding&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text:latest&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text-v2-moe:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
 docker exec -it ollama ollama pull mxbai-embed-large:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
 &lt;br /&gt;
 # small models&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:270m&lt;br /&gt;
 docker exec -it ollama ollama pull tinyllama&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:135m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:360m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:1.7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:0.6b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:1b&lt;br /&gt;
 &lt;br /&gt;
 # large models&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.1:8b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:1b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-r1:7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull phi3:3.8b&lt;br /&gt;
 &lt;br /&gt;
 # vision / image&lt;br /&gt;
 docker exec -it ollama ollama pull llava:7b&lt;br /&gt;
 docker exec -it ollama ollama pull granite3.2-vision:2b &lt;br /&gt;
 &lt;br /&gt;
 # codings&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:0.5b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:7b&lt;br /&gt;
 docker exec -it ollama ollama pull codellama:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:1.3b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:6.7b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepcoder:1.5b&lt;br /&gt;
 &lt;br /&gt;
 # hacking &amp;amp; security&lt;br /&gt;
 docker exec -it ollama ollama pull llama2-uncensored:7b&lt;br /&gt;
 docker exec -it ollama ollama ruturaj04/ruturajai:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/the-xploiter:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/pentester:latest&lt;br /&gt;
 docker exec -it ollama ollama OpenNix/wazuh-llama-3.1-8B-v1:latest&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA&amp;diff=73514</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA&amp;diff=73514"/>
		<updated>2026-03-25T23:05:53Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;docker-compose.yaml&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ################################&lt;br /&gt;
   # 1. OLLAMA (GPU)&lt;br /&gt;
   ################################&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama_data:/root/.ollama&lt;br /&gt;
     environment:&lt;br /&gt;
       - OLLAMA_HOST=0.0.0.0:11434&lt;br /&gt;
       - NVIDIA_VISIBLE_DEVICES=all&lt;br /&gt;
       - NVIDIA_DRIVER_CAPABILITIES=compute,utility&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 2. OPEN-WEBUI&lt;br /&gt;
   ################################&lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:cuda&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
       - WEBUI_AUTH=False&lt;br /&gt;
       - RAG_EMBEDDING_ENGINE=ollama&lt;br /&gt;
       - RAG_EMBEDDING_MODEL=nomic-embed-text&lt;br /&gt;
     volumes:&lt;br /&gt;
       - openwebui_data:/app/backend/data&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 3. N8N 1.x&lt;br /&gt;
   ################################&lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:1.123.9&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=false&lt;br /&gt;
       - N8N_HOST=192.168.0.173&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - N8N_EDITOR_BASE_URL=http://192.168.0.173:5678&lt;br /&gt;
       - WEBHOOK_URL=http://192.168.0.173:5678&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=ganti_dengan_kunci_panjang_acak&lt;br /&gt;
     volumes:&lt;br /&gt;
       - n8n_data:/home/node/.n8n&lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 4. WAHA&lt;br /&gt;
   ################################&lt;br /&gt;
   waha:&lt;br /&gt;
     image: devlikeapro/waha:latest&lt;br /&gt;
     container_name: waha&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - n8n&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3001:3000&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - WHATSAPP_WEBHOOK_URL=http://n8n:5678/webhook/waha-incoming&lt;br /&gt;
       - WHATSAPP_DEFAULT_ENGINE=WEBJS&lt;br /&gt;
       - WHATSAPP_API_KEY=Admin123456!&lt;br /&gt;
       - WHATSAPP_RESTART_ALL_SESSIONS=true&lt;br /&gt;
       - WAHA_DASHBOARD_USERNAME=admin&lt;br /&gt;
       - WAHA_DASHBOARD_PASSWORD=123456&lt;br /&gt;
       - WHATSAPP_SWAGGER_USERNAME=admin&lt;br /&gt;
       - WHATSAPP_SWAGGER_PASSWORD=123456&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./sessions:/app/.sessions&lt;br /&gt;
       - ./media:/app/.media &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama_data:&lt;br /&gt;
   openwebui_data:&lt;br /&gt;
   n8n_data:&lt;br /&gt;
&lt;br /&gt;
Instalasi&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA_yaml_ringan&amp;diff=73513</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA_yaml_ringan&amp;diff=73513"/>
		<updated>2026-03-25T23:05:38Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;docker-compose.yaml&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ################################&lt;br /&gt;
   # 1. OLLAMA (GPU)&lt;br /&gt;
   ################################&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama_data:/root/.ollama&lt;br /&gt;
     environment:&lt;br /&gt;
       - OLLAMA_HOST=0.0.0.0:11434&lt;br /&gt;
       - NVIDIA_VISIBLE_DEVICES=all&lt;br /&gt;
       - NVIDIA_DRIVER_CAPABILITIES=compute,utility&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 2. OPEN-WEBUI&lt;br /&gt;
   ################################&lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:main-slim&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
       - WEBUI_AUTH=False&lt;br /&gt;
       - RAG_EMBEDDING_ENGINE=ollama&lt;br /&gt;
       - RAG_EMBEDDING_MODEL=nomic-embed-text&lt;br /&gt;
     volumes:&lt;br /&gt;
       - open-webui:/app/backend/data  &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 3. N8N 1.x&lt;br /&gt;
   ################################&lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:1.123.9&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=false&lt;br /&gt;
       - N8N_HOST=192.168.0.173&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - N8N_EDITOR_BASE_URL=http://192.168.0.173:5678&lt;br /&gt;
       - WEBHOOK_URL=http://192.168.0.173:5678&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=ganti_dengan_kunci_panjang_acak&lt;br /&gt;
     volumes:&lt;br /&gt;
       - n8n_data:/home/node/.n8n&lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 4. WAHA&lt;br /&gt;
   ################################&lt;br /&gt;
   waha:&lt;br /&gt;
     image: devlikeapro/waha:latest&lt;br /&gt;
     container_name: waha&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - n8n&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3001:3000&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - WHATSAPP_WEBHOOK_URL=http://n8n:5678/webhook/waha-incoming&lt;br /&gt;
       - WHATSAPP_DEFAULT_ENGINE=WEBJS&lt;br /&gt;
       - WHATSAPP_API_KEY=Admin123456!&lt;br /&gt;
       - WHATSAPP_RESTART_ALL_SESSIONS=true&lt;br /&gt;
       - WAHA_DASHBOARD_USERNAME=admin&lt;br /&gt;
       - WAHA_DASHBOARD_PASSWORD=123456&lt;br /&gt;
       - WHATSAPP_SWAGGER_USERNAME=admin&lt;br /&gt;
       - WHATSAPP_SWAGGER_PASSWORD=123456&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./sessions:/app/.sessions&lt;br /&gt;
       - ./media:/app/.media &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama_data:&lt;br /&gt;
   openwebui_data:&lt;br /&gt;
   n8n_data:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Instalasi&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73512</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73512"/>
		<updated>2026-03-25T23:05:21Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* 12) Hal yang paling penting */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bisa. Ini jalur yang paling gampang untuk '''Ubuntu 24.04 Desktop + RTX 4060 8GB''', '''akses lokal saja''', memakai '''Docker Compose''' untuk '''Ollama + Open WebUI + n8n''', lalu '''Orange Data Mining''' dipasang terpisah di host dalam *virtual environment*. Saya sengaja pilih desain ini karena paling mudah dirawat: GPU dipakai oleh '''Ollama''' di container, '''Open WebUI''' hanya jadi UI yang mengarah ke Ollama, dan '''n8n''' tetap ringan. Untuk '''lokal-only''', port saya bind ke `127.0.0.1` agar tidak terbuka ke LAN. Docker mendukung GPU di Compose lewat reservasi device GPU, Open WebUI mendokumentasikan pemakaian image `:cuda` untuk GPU, dan Ollama resmi mendukung Docker + NVIDIA dengan `nvidia-container-toolkit`. ([Docker Documentation][1])&lt;br /&gt;
&lt;br /&gt;
==Arsitektur yang disarankan==&lt;br /&gt;
&lt;br /&gt;
* '''Host Ubuntu 24.04''': driver NVIDIA + Docker Engine + NVIDIA Container Toolkit&lt;br /&gt;
* '''Container 1''': `ollama` memakai GPU RTX 4060&lt;br /&gt;
* '''Container 2''': `open-webui` terhubung ke `ollama`&lt;br /&gt;
* '''Container 3''': `n8n` lokal-only&lt;br /&gt;
* '''Orange Data Mining''': install normal di host, bukan di Docker, agar GUI desktop lebih aman dan simpel&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, bagian pentingnya begini: '''Orange bisa diinstal via `pip` dengan PyQt6''', dan '''Word Cloud / banyak widget Orange tidak otomatis memakai GPU'''. GPU baru berguna kalau workflow Orange memanggil library Python yang memang CUDA-enabled, misalnya lewat '''Python Script widget'''. Jadi saya akan siapkan GPU dengan aman, tapi saya tidak akan klaim semua widget Orange otomatis ngebut pakai RTX 4060. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==1) Pasang driver NVIDIA di host==&lt;br /&gt;
&lt;br /&gt;
Ubuntu menyediakan jalur resmi untuk memasang driver NVIDIA dengan `ubuntu-drivers`. Itu langkah paling aman untuk desktop Ubuntu modern. Setelah reboot, `nvidia-smi` harus menampilkan RTX 4060. ([Ubuntu][3])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
&lt;br /&gt;
Sesudah reboot:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini belum jalan, jangan lanjut ke Docker dulu.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==2) Pasang Docker Engine + Compose plugin==&lt;br /&gt;
&lt;br /&gt;
Docker mendukung Ubuntu 24.04 secara resmi, dan Docker sendiri menyarankan memakai repo resmi mereka, bukan paket Ubuntu lama yang bisa bentrok seperti `docker.io` atau `docker-compose`. Compose plugin juga resmi dipasang lewat paket `docker-compose-plugin`. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 &lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 &lt;br /&gt;
 echo \&lt;br /&gt;
   &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu \&lt;br /&gt;
   $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 &lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
&lt;br /&gt;
Cek:&lt;br /&gt;
&lt;br /&gt;
 docker --version&lt;br /&gt;
 docker compose version&lt;br /&gt;
 docker run hello-world&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==3) Pasang NVIDIA Container Toolkit==&lt;br /&gt;
&lt;br /&gt;
Ollama di Docker butuh '''NVIDIA Container Toolkit''', dan NVIDIA menuliskan langkah resmi: tambah repo, pasang toolkit, jalankan `nvidia-ctk runtime configure --runtime=docker`, lalu restart Docker. Toolkit ini memang mendukung '''Ubuntu 24.04'''. ([NVIDIA Docs][5])&lt;br /&gt;
&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends \&lt;br /&gt;
   ca-certificates curl gnupg2&lt;br /&gt;
 &lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | \&lt;br /&gt;
   sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 &lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \&lt;br /&gt;
   sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 &lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 &lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
&lt;br /&gt;
Tes akses GPU dari Docker:&lt;br /&gt;
&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini menampilkan RTX 4060, berarti GPU sudah siap dipakai container. Docker juga mencontohkan `docker run --gpus all ... nvidia-smi` sebagai uji GPU access. ([Docker Documentation][6])&lt;br /&gt;
&lt;br /&gt;
==4) Buat folder project Compose==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/ai-local-stack&lt;br /&gt;
 cd ~/ai-local-stack&lt;br /&gt;
 mkdir -p n8n_data&lt;br /&gt;
&lt;br /&gt;
Buat file `.env`:&lt;br /&gt;
&lt;br /&gt;
 nano .env&lt;br /&gt;
&lt;br /&gt;
Isi:&lt;br /&gt;
&lt;br /&gt;
 env&lt;br /&gt;
 TZ=Asia/Jakarta&lt;br /&gt;
 N8N_BASIC_AUTH_USER=admin&lt;br /&gt;
 N8N_BASIC_AUTH_PASSWORD=GantiPasswordKuat123!&lt;br /&gt;
 N8N_ENCRYPTION_KEY=GantiIniDenganStringPanjangAcakMinimal32Karakter&lt;br /&gt;
 WEBUI_SECRET_KEY=GantiIniJugaDenganStringPanjangAcak&lt;br /&gt;
&lt;br /&gt;
n8n memang memakai konfigurasi lewat environment variables di `docker-compose.yml`, dan dokumentasinya menjelaskan bahwa URL akses dan webhook bisa dikontrol lewat env vars seperti `N8N_PROTOCOL`, `N8N_HOST`, `N8N_PORT`, dan `WEBHOOK_URL`. ([n8n Docs][7])&lt;br /&gt;
&lt;br /&gt;
==5) Buat `docker-compose.yml`==&lt;br /&gt;
&lt;br /&gt;
Buat file:&lt;br /&gt;
&lt;br /&gt;
 nano docker-compose.yml&lt;br /&gt;
&lt;br /&gt;
Isi dengan ini:&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama:/root/.ollama&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [gpu] &lt;br /&gt;
 &lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:main-slim&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - WEBUI_SECRET_KEY=${WEBUI_SECRET_KEY}&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
     volumes:&lt;br /&gt;
       - open-webui:/app/backend/data &lt;br /&gt;
 &lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:latest&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - N8N_HOST=localhost&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - WEBHOOK_URL=http://localhost:5678/&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=true&lt;br /&gt;
       - N8N_BASIC_AUTH_USER=${N8N_BASIC_AUTH_USER}&lt;br /&gt;
       - N8N_BASIC_AUTH_PASSWORD=${N8N_BASIC_AUTH_PASSWORD}&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=${N8N_ENCRYPTION_KEY}&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - GENERIC_TIMEZONE=${TZ}&lt;br /&gt;
       - N8N_DIAGNOSTICS_ENABLED=false&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./n8n_data:/home/node/.n8n &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama:&lt;br /&gt;
   open-webui:&lt;br /&gt;
&lt;br /&gt;
Kenapa begini:&lt;br /&gt;
&lt;br /&gt;
* `127.0.0.1:...` membuat layanan hanya bisa diakses dari mesin itu sendiri, bukan dari LAN. Ini paling pas untuk “akses lokal”.&lt;br /&gt;
* `OLLAMA_BASE_URL=http://ollama:11434` mengikuti pola env Open WebUI untuk menunjuk backend Ollama. Open WebUI mendokumentasikan `OLLAMA_BASE_URL` dan default Docker-nya memang mengarah ke backend internal/container. ([Open WebUI][8])&lt;br /&gt;
* Untuk GPU di Compose, Docker menjelaskan bahwa `deploy.resources.reservations.devices` dengan `driver: nvidia` dan `capabilities: [gpu]` adalah bentuk resmi, dan `capabilities` wajib ada. Open WebUI juga memberi contoh Compose GPU yang sama. ([Docker Documentation][1])&lt;br /&gt;
* n8n resmi mendukung Docker/Compose sebagai metode self-hosting yang direkomendasikan. ([n8n Docs][9])&lt;br /&gt;
&lt;br /&gt;
==6) Jalankan stack==&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;br /&gt;
&lt;br /&gt;
Akses lokal:&lt;br /&gt;
&lt;br /&gt;
* Open WebUI: `http://localhost:3000`&lt;br /&gt;
* n8n: `http://localhost:5678`&lt;br /&gt;
* Ollama API: `http://localhost:11434`&lt;br /&gt;
&lt;br /&gt;
Open WebUI sendiri memang memakai port kontainer `8080`, contoh Compose resminya memetakan ke host seperti `3000:8080`. ([Open WebUI][10])&lt;br /&gt;
&lt;br /&gt;
==7) Tes bahwa Ollama benar-benar pakai GPU==&lt;br /&gt;
&lt;br /&gt;
Tarik model kecil dulu:&lt;br /&gt;
&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2&lt;br /&gt;
 docker exec -it ollama ollama run llama3.2&lt;br /&gt;
&lt;br /&gt;
Ollama memang mendokumentasikan `docker exec -it ollama ollama run llama3.2` sebagai contoh setelah container aktif. ([Ollama][11])&lt;br /&gt;
&lt;br /&gt;
Tes log:&lt;br /&gt;
&lt;br /&gt;
 docker logs -f ollama&lt;br /&gt;
&lt;br /&gt;
Sambil jalan, buka terminal lain:&lt;br /&gt;
&lt;br /&gt;
 watch -n 1 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau VRAM/GPU util naik saat inferensi, berarti RTX 4060 dipakai.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==8) Cara termudah menghubungkan n8n ke Ollama==&lt;br /&gt;
&lt;br /&gt;
Di n8n, untuk request ke Ollama lokal di jaringan Compose, gunakan base URL:&lt;br /&gt;
&lt;br /&gt;
 http://ollama:11434&lt;br /&gt;
&lt;br /&gt;
Kalau n8n perlu memanggil API chat/generate, endpoint Ollama tetap lewat service name `ollama` karena semua container ada di network Compose yang sama. Ini sejalan dengan cara Open WebUI diarahkan ke Ollama memakai URL backend internal. ([Open WebUI][8])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==9) Instal Orange Data Mining yang aman==&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, saya sarankan '''jangan didockerkan''' kalau tujuannya GUI desktop biasa. Cara resmi Orange untuk platform Linux lain adalah pakai `pip`, dan bila sistem belum menyediakan PyQt, pasang '''PyQt6''' dan '''PyQt6-WebEngine''', lalu `pip install orange3`. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y \&lt;br /&gt;
   python3-pip python3-venv python3-dev build-essential \&lt;br /&gt;
   libxcb-cursor0 libxkbcommon-x11-0 libgl1 libegl1 libopengl0&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv ~/orangenv&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 python -m pip install --upgrade pip setuptools wheel&lt;br /&gt;
 &lt;br /&gt;
 pip install PyQt6 PyQt6-WebEngine&lt;br /&gt;
 pip install orange3&lt;br /&gt;
 pip install Orange3-Text wordcloud&lt;br /&gt;
&lt;br /&gt;
Jalankan:&lt;br /&gt;
&lt;br /&gt;
 python -m Orange.canvas&lt;br /&gt;
&lt;br /&gt;
Add-on memang bisa dipasang dari '''Options → Add-ons''', dan '''Word Cloud''' adalah bagian dari add-on Text Mining. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==10) Siapkan akses GPU untuk Orange dengan aman==&lt;br /&gt;
&lt;br /&gt;
Ini bagian yang perlu jujur: '''Orange tidak otomatis memakai GPU untuk semua widget'''. Widget seperti '''Word Cloud''' didokumentasikan sebagai widget visualisasi teks biasa; dokumentasinya tidak menyebut kebutuhan GPU khusus. Jadi GPU RTX 4060 di Orange lebih realistis dipakai saat Anda menjalankan library CUDA lewat '''Python Script widget''' atau alur Python lain. ([Orange Data Mining][12])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda ingin Orange bisa memanggil GPU, cukup tambahkan library Python yang CUDA-enabled ke venv Orange. NVIDIA menjelaskan CUDA Toolkit untuk Linux adalah toolkit komputasi GPU resmi mereka. ([NVIDIA Docs][13])&lt;br /&gt;
&lt;br /&gt;
Contoh aman dan simpel:&lt;br /&gt;
&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 pip install torch&lt;br /&gt;
&lt;br /&gt;
Tes:&lt;br /&gt;
&lt;br /&gt;
 python -c &amp;quot;import torch; print('CUDA:', torch.cuda.is_available()); print(torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'No GPU')&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Kalau hasilnya `CUDA: True` dan muncul `RTX 4060`, berarti Orange bisa memakai Python yang melihat GPU. Setelah itu, di Orange Anda bisa pakai widget '''Python Script''' untuk menjalankan kode berbasis PyTorch/CUDA. Ini konsisten dengan model instalasi Orange yang berbasis lingkungan Python biasa. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==11) Ringkasan copy-paste tercepat==&lt;br /&gt;
&lt;br /&gt;
Kalau mau yang paling singkat, urutannya begini:&lt;br /&gt;
&lt;br /&gt;
 # 1. Driver NVIDIA&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
 &lt;br /&gt;
 # 2. Docker resmi&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 echo &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
 &lt;br /&gt;
 # 3. NVIDIA Container Toolkit&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends ca-certificates curl gnupg2&lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Setelah itu baru buat `docker-compose.yml` di atas dan jalankan `docker compose up -d`. Semua langkah ini mengikuti dokumentasi resmi Docker, NVIDIA Container Toolkit, Ollama, Open WebUI, dan n8n. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==12) Hal yang paling penting==&lt;br /&gt;
&lt;br /&gt;
* '''Untuk lokal saja''', bind port ke `127.0.0.1`&lt;br /&gt;
* '''GPU utama cukup dipakai Ollama'''&lt;br /&gt;
* '''Open WebUI''' cukup terhubung ke Ollama&lt;br /&gt;
* '''n8n''' tidak perlu GPU&lt;br /&gt;
* '''Orange''' aman dipasang di host, bukan Docker&lt;br /&gt;
* '''Orange + GPU''' realistis untuk workflow Python tertentu, '''bukan otomatis semua widget'''&lt;br /&gt;
&lt;br /&gt;
Kalau Anda mau, saya bisa lanjutkan dengan versi kedua yang lebih praktis lagi: saya tuliskan '''satu paket final siap copy-paste''' berisi `.env`, `docker-compose.yml`, perintah install, serta bagian '''troubleshooting''' untuk kasus `nvidia-smi gagal`, `ollama tidak detect GPU`, `Open WebUI blank`, `n8n permission`, dan `torch.cuda.is_available() = False`.&lt;br /&gt;
&lt;br /&gt;
* [1]: https://docs.docker.com/compose/how-tos/gpu-support/ &amp;quot;Enable GPU support | Docker Docs&amp;quot;&lt;br /&gt;
* [2]: https://orangedatamining.com/download/?utm_source=chatgpt.com &amp;quot;Orange Data Mining - Download.&amp;quot;&lt;br /&gt;
* [3]: https://ubuntu.com/server/docs/how-to/graphics/install-nvidia-drivers/?utm_source=chatgpt.com &amp;quot;NVIDIA drivers installation - Ubuntu Server documentation&amp;quot;&lt;br /&gt;
* [4]: https://docs.docker.com/engine/install/ubuntu/?utm_source=chatgpt.com &amp;quot;Install Docker Engine on Ubuntu&amp;quot;&lt;br /&gt;
* [5]: https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html &amp;quot;Installing the NVIDIA Container Toolkit — NVIDIA Container Toolkit&amp;quot;&lt;br /&gt;
* [6]: https://docs.docker.com/ai/model-runner/inference-engines/?utm_source=chatgpt.com &amp;quot;Inference engines&amp;quot;&lt;br /&gt;
* [7]: https://docs.n8n.io/hosting/configuration/configuration-methods/?utm_source=chatgpt.com &amp;quot;Configuration methods&amp;quot;&lt;br /&gt;
* [8]: https://docs.openwebui.com/reference/env-configuration/ &amp;quot;Environment Variable Configuration | Open WebUI&amp;quot;&lt;br /&gt;
* [9]: https://docs.n8n.io/hosting/installation/docker/?utm_source=chatgpt.com &amp;quot;Docker | n8n Docs&amp;quot;&lt;br /&gt;
* [10]: https://docs.openwebui.com/getting-started/quick-start/ &amp;quot;Quick Start | Open WebUI&amp;quot;&lt;br /&gt;
* [11]: https://docs.ollama.com/docker &amp;quot;Docker - Ollama&amp;quot;&lt;br /&gt;
* [12]: https://orangedatamining.com/widget-catalog/text-mining/wordcloud/?utm_source=chatgpt.com &amp;quot;Word Cloud - Orange Data Mining&amp;quot;&lt;br /&gt;
* [13]: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/ &amp;quot;CUDA Installation Guide for Linux — Installation Guide for Linux 13.2 documentation&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73511</id>
		<title>LLM: Ubuntu 24.04 desktop pull ollama model</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73511"/>
		<updated>2026-03-25T22:54:41Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
 # embedding&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text:latest&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text-v2-moe:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
 docker exec -it ollama ollama pull mxbai-embed-large:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
 &lt;br /&gt;
 # small models&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:270m&lt;br /&gt;
 docker exec -it ollama ollama pull tinyllama&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:135m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:360m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:1.7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:0.6b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:1b&lt;br /&gt;
 &lt;br /&gt;
 # large models&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.1:8b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:1b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-r1:7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull phi3:3.8b&lt;br /&gt;
 &lt;br /&gt;
 # vision / image&lt;br /&gt;
 docker exec -it ollama ollama pull llava:7b&lt;br /&gt;
 docker exec -it ollama ollama pull granite3.2-vision:2b &lt;br /&gt;
 &lt;br /&gt;
 # codings&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:0.5b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:7b&lt;br /&gt;
 docker exec -it ollama ollama pull codellama:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:1.3b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:6.7b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepcoder:1.5b&lt;br /&gt;
 &lt;br /&gt;
 # hacking &amp;amp; security&lt;br /&gt;
 docker exec -it ollama ollama pull llama2-uncensored:7b&lt;br /&gt;
 docker exec -it ollama ollama ruturaj04/ruturajai:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/the-xploiter:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/pentester:latest&lt;br /&gt;
 docker exec -it ollama ollama OpenNix/wazuh-llama-3.1-8B-v1:latest&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73510</id>
		<title>LLM: Ubuntu 24.04 desktop pull ollama model</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73510"/>
		<updated>2026-03-25T22:54:23Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
 # embedding&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text:latest&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text-v2-moe:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
 docker exec -it ollama ollama pull mxbai-embed-large:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 # small models&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:270m&lt;br /&gt;
 docker exec -it ollama ollama pull tinyllama&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:135m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:360m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:1.7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:0.6b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:1b&lt;br /&gt;
 &lt;br /&gt;
 # large models&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.1:8b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:1b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-r1:7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull phi3:3.8b&lt;br /&gt;
 &lt;br /&gt;
 # vision / image&lt;br /&gt;
 docker exec -it ollama ollama pull llava:7b&lt;br /&gt;
 docker exec -it ollama ollama pull granite3.2-vision:2b &lt;br /&gt;
 &lt;br /&gt;
 # codings&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:0.5b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:7b&lt;br /&gt;
 docker exec -it ollama ollama pull codellama:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:1.3b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:6.7b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepcoder:1.5b&lt;br /&gt;
 &lt;br /&gt;
 # hacking &amp;amp; security&lt;br /&gt;
 docker exec -it ollama ollama pull llama2-uncensored:7b&lt;br /&gt;
 docker exec -it ollama ollama ruturaj04/ruturajai:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/the-xploiter:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/pentester:latest&lt;br /&gt;
 docker exec -it ollama ollama OpenNix/wazuh-llama-3.1-8B-v1:latest&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73509</id>
		<title>LLM: Ubuntu 24.04 desktop pull ollama model</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73509"/>
		<updated>2026-03-25T22:52:16Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
 # embedding&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text:latest&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text-v2-moe:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
 docker exec -it ollama ollama pull mxbai-embed-large:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 # small models&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:270m&lt;br /&gt;
 docker exec -it ollama ollama pull tinyllama&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:135m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:360m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:1.7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:0.6b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:1b&lt;br /&gt;
 &lt;br /&gt;
 # large models&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.1:8b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:1b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-r1:7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull phi3:3.8b&lt;br /&gt;
 &lt;br /&gt;
 # vision / image&lt;br /&gt;
 docker exec -it ollama ollama pull llava:7b&lt;br /&gt;
 docker exec -it ollama ollama pull granite3.2-vision:2b &lt;br /&gt;
 &lt;br /&gt;
 # codings&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:0.5b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:7b&lt;br /&gt;
 docker exec -it ollama ollama pull codellama:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:1.3b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:6.7b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepcoder:1.5b&lt;br /&gt;
 &lt;br /&gt;
 # hacking &amp;amp; security&lt;br /&gt;
 docker exec -it ollama ollama pull llama2-uncensored:7b&lt;br /&gt;
 docker exec -it ollama ollama ruturaj04/ruturajai:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/the-xploiter:latest&lt;br /&gt;
 docker exec -it ollama ollama xploiter/pentester:latest&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73508</id>
		<title>LLM: Ubuntu 24.04 desktop pull ollama model</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_pull_ollama_model&amp;diff=73508"/>
		<updated>2026-03-25T22:47:59Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;  # embedding  docker exec -it ollama ollama pull nomic-embed-text:latest  docker exec -it ollama ollama pull nomic-embed-text-v2-moe:latest  docker exec -it ollama ollama pul...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
 # embedding&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text:latest&lt;br /&gt;
 docker exec -it ollama ollama pull nomic-embed-text-v2-moe:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
 docker exec -it ollama ollama pull mxbai-embed-large:latest&lt;br /&gt;
 docker exec -it ollama ollama pull embeddinggemma:latest&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 # small models&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:270m&lt;br /&gt;
 docker exec -it ollama ollama pull tinyllama&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:135m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:360m&lt;br /&gt;
 docker exec -it ollama ollama pull smollm2:1.7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:0.6b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:1b&lt;br /&gt;
 &lt;br /&gt;
 # large models&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.1:8b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:1b&lt;br /&gt;
 docker exec -it ollama ollama pull gemma3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-r1:7b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen3:4b&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull phi3:3.8b&lt;br /&gt;
 &lt;br /&gt;
 # vision / image&lt;br /&gt;
 docker exec -it ollama ollama pull llava:7b&lt;br /&gt;
 docker exec -it ollama ollama pull granite3.2-vision:2b &lt;br /&gt;
 &lt;br /&gt;
 # codings&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:0.5b&lt;br /&gt;
 docker exec -it ollama ollama pull qwen2.5-coder:7b&lt;br /&gt;
 docker exec -it ollama ollama pull codellama:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:1.3b&lt;br /&gt;
 docker exec -it ollama ollama pull deepseek-coder:6.7b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:3b&lt;br /&gt;
 docker exec -it ollama ollama pull starcoder2:7b&lt;br /&gt;
 docker exec -it ollama ollama pull deepcoder:1.5b&lt;br /&gt;
 &lt;br /&gt;
 docker exec -it ollama ollama pull llama2-uncensored:7b&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73507</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73507"/>
		<updated>2026-03-25T22:42:07Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Pranala Menarik */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop pull ollama model]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==ComfyUI==&lt;br /&gt;
&lt;br /&gt;
* [[ComfyUI: instalasi]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA&amp;diff=73506</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA&amp;diff=73506"/>
		<updated>2026-03-25T22:40:03Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;docker-compose.yaml&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ################################&lt;br /&gt;
   # 1. OLLAMA (GPU)&lt;br /&gt;
   ################################&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama_data:/root/.ollama&lt;br /&gt;
     environment:&lt;br /&gt;
       - OLLAMA_HOST=0.0.0.0:11434&lt;br /&gt;
       - NVIDIA_VISIBLE_DEVICES=all&lt;br /&gt;
       - NVIDIA_DRIVER_CAPABILITIES=compute,utility&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 2. OPEN-WEBUI&lt;br /&gt;
   ################################&lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:cuda&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
       - WEBUI_AUTH=False&lt;br /&gt;
       - RAG_EMBEDDING_ENGINE=ollama&lt;br /&gt;
       - RAG_EMBEDDING_MODEL=nomic-embed-text&lt;br /&gt;
     volumes:&lt;br /&gt;
       - openwebui_data:/app/backend/data&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 3. N8N 1.x&lt;br /&gt;
   ################################&lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:1.123.9&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=false&lt;br /&gt;
       - N8N_HOST=192.168.0.173&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - N8N_EDITOR_BASE_URL=http://192.168.0.173:5678&lt;br /&gt;
       - WEBHOOK_URL=http://192.168.0.173:5678&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=ganti_dengan_kunci_panjang_acak&lt;br /&gt;
     volumes:&lt;br /&gt;
       - n8n_data:/home/node/.n8n&lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 4. WAHA&lt;br /&gt;
   ################################&lt;br /&gt;
   waha:&lt;br /&gt;
     image: devlikeapro/waha:latest&lt;br /&gt;
     container_name: waha&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - n8n&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3001:3000&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - WHATSAPP_WEBHOOK_URL=http://n8n:5678/webhook/waha-incoming&lt;br /&gt;
       - WHATSAPP_DEFAULT_ENGINE=WEBJS&lt;br /&gt;
       - WHATSAPP_API_KEY=Admin123456!&lt;br /&gt;
       - WHATSAPP_RESTART_ALL_SESSIONS=true&lt;br /&gt;
       - WAHA_DASHBOARD_USERNAME=admin&lt;br /&gt;
       - WAHA_DASHBOARD_PASSWORD=123456&lt;br /&gt;
       - WHATSAPP_SWAGGER_USERNAME=admin&lt;br /&gt;
       - WHATSAPP_SWAGGER_PASSWORD=123456&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./sessions:/app/.sessions&lt;br /&gt;
       - ./media:/app/.media &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama_data:&lt;br /&gt;
   openwebui_data:&lt;br /&gt;
   n8n_data:&lt;br /&gt;
&lt;br /&gt;
Instalasi&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA_yaml_ringan&amp;diff=73505</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA_yaml_ringan&amp;diff=73505"/>
		<updated>2026-03-25T22:39:30Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;docker-compose.yaml&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ################################&lt;br /&gt;
   # 1. OLLAMA (GPU)&lt;br /&gt;
   ################################&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama_data:/root/.ollama&lt;br /&gt;
     environment:&lt;br /&gt;
       - OLLAMA_HOST=0.0.0.0:11434&lt;br /&gt;
       - NVIDIA_VISIBLE_DEVICES=all&lt;br /&gt;
       - NVIDIA_DRIVER_CAPABILITIES=compute,utility&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 2. OPEN-WEBUI&lt;br /&gt;
   ################################&lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:main-slim&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
       - WEBUI_AUTH=False&lt;br /&gt;
       - RAG_EMBEDDING_ENGINE=ollama&lt;br /&gt;
       - RAG_EMBEDDING_MODEL=nomic-embed-text&lt;br /&gt;
     volumes:&lt;br /&gt;
       - open-webui:/app/backend/data  &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 3. N8N 1.x&lt;br /&gt;
   ################################&lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:1.123.9&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=false&lt;br /&gt;
       - N8N_HOST=192.168.0.173&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - N8N_EDITOR_BASE_URL=http://192.168.0.173:5678&lt;br /&gt;
       - WEBHOOK_URL=http://192.168.0.173:5678&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=ganti_dengan_kunci_panjang_acak&lt;br /&gt;
     volumes:&lt;br /&gt;
       - n8n_data:/home/node/.n8n&lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 4. WAHA&lt;br /&gt;
   ################################&lt;br /&gt;
   waha:&lt;br /&gt;
     image: devlikeapro/waha:latest&lt;br /&gt;
     container_name: waha&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - n8n&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3001:3000&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - WHATSAPP_WEBHOOK_URL=http://n8n:5678/webhook/waha-incoming&lt;br /&gt;
       - WHATSAPP_DEFAULT_ENGINE=WEBJS&lt;br /&gt;
       - WHATSAPP_API_KEY=Admin123456!&lt;br /&gt;
       - WHATSAPP_RESTART_ALL_SESSIONS=true&lt;br /&gt;
       - WAHA_DASHBOARD_USERNAME=admin&lt;br /&gt;
       - WAHA_DASHBOARD_PASSWORD=123456&lt;br /&gt;
       - WHATSAPP_SWAGGER_USERNAME=admin&lt;br /&gt;
       - WHATSAPP_SWAGGER_PASSWORD=123456&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./sessions:/app/.sessions&lt;br /&gt;
       - ./media:/app/.media &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama_data:&lt;br /&gt;
   openwebui_data:&lt;br /&gt;
   n8n_data:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Instalasi&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA_yaml_ringan&amp;diff=73504</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA_yaml_ringan&amp;diff=73504"/>
		<updated>2026-03-25T22:35:26Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;docker-compose.yaml   services:    ################################    # 1. OLLAMA (GPU)    ################################    ollama:      image: ollama/ollama:latest      c...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;docker-compose.yaml&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ################################&lt;br /&gt;
   # 1. OLLAMA (GPU)&lt;br /&gt;
   ################################&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama_data:/root/.ollama&lt;br /&gt;
     environment:&lt;br /&gt;
       - OLLAMA_HOST=0.0.0.0:11434&lt;br /&gt;
       - NVIDIA_VISIBLE_DEVICES=all&lt;br /&gt;
       - NVIDIA_DRIVER_CAPABILITIES=compute,utility&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 2. OPEN-WEBUI&lt;br /&gt;
   ################################&lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:main-slim&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
       - WEBUI_AUTH=False&lt;br /&gt;
       - RAG_EMBEDDING_ENGINE=ollama&lt;br /&gt;
       - RAG_EMBEDDING_MODEL=nomic-embed-text&lt;br /&gt;
     volumes:&lt;br /&gt;
       - open-webui:/app/backend/data  &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 3. N8N 1.x&lt;br /&gt;
   ################################&lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:1.123.9&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=false&lt;br /&gt;
       - N8N_HOST=192.168.0.173&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - N8N_EDITOR_BASE_URL=http://192.168.0.173:5678&lt;br /&gt;
       - WEBHOOK_URL=http://192.168.0.173:5678&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=ganti_dengan_kunci_panjang_acak&lt;br /&gt;
     volumes:&lt;br /&gt;
       - n8n_data:/home/node/.n8n&lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 4. WAHA&lt;br /&gt;
   ################################&lt;br /&gt;
   waha:&lt;br /&gt;
     image: devlikeapro/waha:latest&lt;br /&gt;
     container_name: waha&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - n8n&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3001:3000&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - WHATSAPP_WEBHOOK_URL=http://n8n:5678/webhook/waha-incoming&lt;br /&gt;
       - WHATSAPP_DEFAULT_ENGINE=WEBJS&lt;br /&gt;
       - WHATSAPP_API_KEY=Admin123456!&lt;br /&gt;
       - WHATSAPP_RESTART_ALL_SESSIONS=true&lt;br /&gt;
       - WAHA_DASHBOARD_USERNAME=admin&lt;br /&gt;
       - WAHA_DASHBOARD_PASSWORD=123456&lt;br /&gt;
       - WHATSAPP_SWAGGER_USERNAME=admin&lt;br /&gt;
       - WHATSAPP_SWAGGER_PASSWORD=123456&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./sessions:/app/.sessions&lt;br /&gt;
       - ./media:/app/.media &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama_data:&lt;br /&gt;
   openwebui_data:&lt;br /&gt;
   n8n_data:&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73503</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73503"/>
		<updated>2026-03-25T22:32:44Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Pranala Menarik */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA yaml ringan]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==ComfyUI==&lt;br /&gt;
&lt;br /&gt;
* [[ComfyUI: instalasi]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA&amp;diff=73502</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_WAHA&amp;diff=73502"/>
		<updated>2026-03-24T10:19:07Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;docker-compose.yaml   services:    ################################    # 1. OLLAMA (GPU)    ################################    ollama:      image: ollama/ollama:latest      c...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;docker-compose.yaml&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ################################&lt;br /&gt;
   # 1. OLLAMA (GPU)&lt;br /&gt;
   ################################&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama_data:/root/.ollama&lt;br /&gt;
     environment:&lt;br /&gt;
       - OLLAMA_HOST=0.0.0.0:11434&lt;br /&gt;
       - NVIDIA_VISIBLE_DEVICES=all&lt;br /&gt;
       - NVIDIA_DRIVER_CAPABILITIES=compute,utility&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 2. OPEN-WEBUI&lt;br /&gt;
   ################################&lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:cuda&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
       - WEBUI_AUTH=False&lt;br /&gt;
       - RAG_EMBEDDING_ENGINE=ollama&lt;br /&gt;
       - RAG_EMBEDDING_MODEL=nomic-embed-text&lt;br /&gt;
     volumes:&lt;br /&gt;
       - openwebui_data:/app/backend/data&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [&amp;quot;gpu&amp;quot;] &lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 3. N8N 1.x&lt;br /&gt;
   ################################&lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:1.123.9&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=false&lt;br /&gt;
       - N8N_HOST=192.168.0.173&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - N8N_EDITOR_BASE_URL=http://192.168.0.173:5678&lt;br /&gt;
       - WEBHOOK_URL=http://192.168.0.173:5678&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=ganti_dengan_kunci_panjang_acak&lt;br /&gt;
     volumes:&lt;br /&gt;
       - n8n_data:/home/node/.n8n&lt;br /&gt;
 &lt;br /&gt;
   ################################&lt;br /&gt;
   # 4. WAHA&lt;br /&gt;
   ################################&lt;br /&gt;
   waha:&lt;br /&gt;
     image: devlikeapro/waha:latest&lt;br /&gt;
     container_name: waha&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - n8n&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;3001:3000&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=Asia/Jakarta&lt;br /&gt;
       - WHATSAPP_WEBHOOK_URL=http://n8n:5678/webhook/waha-incoming&lt;br /&gt;
       - WHATSAPP_DEFAULT_ENGINE=WEBJS&lt;br /&gt;
       - WHATSAPP_API_KEY=Admin123456!&lt;br /&gt;
       - WHATSAPP_RESTART_ALL_SESSIONS=true&lt;br /&gt;
       - WAHA_DASHBOARD_USERNAME=admin&lt;br /&gt;
       - WAHA_DASHBOARD_PASSWORD=123456&lt;br /&gt;
       - WHATSAPP_SWAGGER_USERNAME=admin&lt;br /&gt;
       - WHATSAPP_SWAGGER_PASSWORD=123456&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./sessions:/app/.sessions&lt;br /&gt;
       - ./media:/app/.media &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama_data:&lt;br /&gt;
   openwebui_data:&lt;br /&gt;
   n8n_data:&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73501</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73501"/>
		<updated>2026-03-24T10:14:40Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Pranala Menarik */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui WAHA]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==ComfyUI==&lt;br /&gt;
&lt;br /&gt;
* [[ComfyUI: instalasi]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73500</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73500"/>
		<updated>2026-03-12T19:58:22Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* 5) Buat `docker-compose.yml` */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bisa. Ini jalur yang paling gampang untuk '''Ubuntu 24.04 Desktop + RTX 4060 8GB''', '''akses lokal saja''', memakai '''Docker Compose''' untuk '''Ollama + Open WebUI + n8n''', lalu '''Orange Data Mining''' dipasang terpisah di host dalam *virtual environment*. Saya sengaja pilih desain ini karena paling mudah dirawat: GPU dipakai oleh '''Ollama''' di container, '''Open WebUI''' hanya jadi UI yang mengarah ke Ollama, dan '''n8n''' tetap ringan. Untuk '''lokal-only''', port saya bind ke `127.0.0.1` agar tidak terbuka ke LAN. Docker mendukung GPU di Compose lewat reservasi device GPU, Open WebUI mendokumentasikan pemakaian image `:cuda` untuk GPU, dan Ollama resmi mendukung Docker + NVIDIA dengan `nvidia-container-toolkit`. ([Docker Documentation][1])&lt;br /&gt;
&lt;br /&gt;
==Arsitektur yang disarankan==&lt;br /&gt;
&lt;br /&gt;
* '''Host Ubuntu 24.04''': driver NVIDIA + Docker Engine + NVIDIA Container Toolkit&lt;br /&gt;
* '''Container 1''': `ollama` memakai GPU RTX 4060&lt;br /&gt;
* '''Container 2''': `open-webui` terhubung ke `ollama`&lt;br /&gt;
* '''Container 3''': `n8n` lokal-only&lt;br /&gt;
* '''Orange Data Mining''': install normal di host, bukan di Docker, agar GUI desktop lebih aman dan simpel&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, bagian pentingnya begini: '''Orange bisa diinstal via `pip` dengan PyQt6''', dan '''Word Cloud / banyak widget Orange tidak otomatis memakai GPU'''. GPU baru berguna kalau workflow Orange memanggil library Python yang memang CUDA-enabled, misalnya lewat '''Python Script widget'''. Jadi saya akan siapkan GPU dengan aman, tapi saya tidak akan klaim semua widget Orange otomatis ngebut pakai RTX 4060. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==1) Pasang driver NVIDIA di host==&lt;br /&gt;
&lt;br /&gt;
Ubuntu menyediakan jalur resmi untuk memasang driver NVIDIA dengan `ubuntu-drivers`. Itu langkah paling aman untuk desktop Ubuntu modern. Setelah reboot, `nvidia-smi` harus menampilkan RTX 4060. ([Ubuntu][3])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
&lt;br /&gt;
Sesudah reboot:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini belum jalan, jangan lanjut ke Docker dulu.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==2) Pasang Docker Engine + Compose plugin==&lt;br /&gt;
&lt;br /&gt;
Docker mendukung Ubuntu 24.04 secara resmi, dan Docker sendiri menyarankan memakai repo resmi mereka, bukan paket Ubuntu lama yang bisa bentrok seperti `docker.io` atau `docker-compose`. Compose plugin juga resmi dipasang lewat paket `docker-compose-plugin`. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 &lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 &lt;br /&gt;
 echo \&lt;br /&gt;
   &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu \&lt;br /&gt;
   $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 &lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
&lt;br /&gt;
Cek:&lt;br /&gt;
&lt;br /&gt;
 docker --version&lt;br /&gt;
 docker compose version&lt;br /&gt;
 docker run hello-world&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==3) Pasang NVIDIA Container Toolkit==&lt;br /&gt;
&lt;br /&gt;
Ollama di Docker butuh '''NVIDIA Container Toolkit''', dan NVIDIA menuliskan langkah resmi: tambah repo, pasang toolkit, jalankan `nvidia-ctk runtime configure --runtime=docker`, lalu restart Docker. Toolkit ini memang mendukung '''Ubuntu 24.04'''. ([NVIDIA Docs][5])&lt;br /&gt;
&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends \&lt;br /&gt;
   ca-certificates curl gnupg2&lt;br /&gt;
 &lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | \&lt;br /&gt;
   sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 &lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \&lt;br /&gt;
   sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 &lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 &lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
&lt;br /&gt;
Tes akses GPU dari Docker:&lt;br /&gt;
&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini menampilkan RTX 4060, berarti GPU sudah siap dipakai container. Docker juga mencontohkan `docker run --gpus all ... nvidia-smi` sebagai uji GPU access. ([Docker Documentation][6])&lt;br /&gt;
&lt;br /&gt;
==4) Buat folder project Compose==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/ai-local-stack&lt;br /&gt;
 cd ~/ai-local-stack&lt;br /&gt;
 mkdir -p n8n_data&lt;br /&gt;
&lt;br /&gt;
Buat file `.env`:&lt;br /&gt;
&lt;br /&gt;
 nano .env&lt;br /&gt;
&lt;br /&gt;
Isi:&lt;br /&gt;
&lt;br /&gt;
 env&lt;br /&gt;
 TZ=Asia/Jakarta&lt;br /&gt;
 N8N_BASIC_AUTH_USER=admin&lt;br /&gt;
 N8N_BASIC_AUTH_PASSWORD=GantiPasswordKuat123!&lt;br /&gt;
 N8N_ENCRYPTION_KEY=GantiIniDenganStringPanjangAcakMinimal32Karakter&lt;br /&gt;
 WEBUI_SECRET_KEY=GantiIniJugaDenganStringPanjangAcak&lt;br /&gt;
&lt;br /&gt;
n8n memang memakai konfigurasi lewat environment variables di `docker-compose.yml`, dan dokumentasinya menjelaskan bahwa URL akses dan webhook bisa dikontrol lewat env vars seperti `N8N_PROTOCOL`, `N8N_HOST`, `N8N_PORT`, dan `WEBHOOK_URL`. ([n8n Docs][7])&lt;br /&gt;
&lt;br /&gt;
==5) Buat `docker-compose.yml`==&lt;br /&gt;
&lt;br /&gt;
Buat file:&lt;br /&gt;
&lt;br /&gt;
 nano docker-compose.yml&lt;br /&gt;
&lt;br /&gt;
Isi dengan ini:&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama:/root/.ollama&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [gpu] &lt;br /&gt;
 &lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:main-slim&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - WEBUI_SECRET_KEY=${WEBUI_SECRET_KEY}&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
     volumes:&lt;br /&gt;
       - open-webui:/app/backend/data &lt;br /&gt;
 &lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:latest&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - N8N_HOST=localhost&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - WEBHOOK_URL=http://localhost:5678/&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=true&lt;br /&gt;
       - N8N_BASIC_AUTH_USER=${N8N_BASIC_AUTH_USER}&lt;br /&gt;
       - N8N_BASIC_AUTH_PASSWORD=${N8N_BASIC_AUTH_PASSWORD}&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=${N8N_ENCRYPTION_KEY}&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - GENERIC_TIMEZONE=${TZ}&lt;br /&gt;
       - N8N_DIAGNOSTICS_ENABLED=false&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./n8n_data:/home/node/.n8n &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama:&lt;br /&gt;
   open-webui:&lt;br /&gt;
&lt;br /&gt;
Kenapa begini:&lt;br /&gt;
&lt;br /&gt;
* `127.0.0.1:...` membuat layanan hanya bisa diakses dari mesin itu sendiri, bukan dari LAN. Ini paling pas untuk “akses lokal”.&lt;br /&gt;
* `OLLAMA_BASE_URL=http://ollama:11434` mengikuti pola env Open WebUI untuk menunjuk backend Ollama. Open WebUI mendokumentasikan `OLLAMA_BASE_URL` dan default Docker-nya memang mengarah ke backend internal/container. ([Open WebUI][8])&lt;br /&gt;
* Untuk GPU di Compose, Docker menjelaskan bahwa `deploy.resources.reservations.devices` dengan `driver: nvidia` dan `capabilities: [gpu]` adalah bentuk resmi, dan `capabilities` wajib ada. Open WebUI juga memberi contoh Compose GPU yang sama. ([Docker Documentation][1])&lt;br /&gt;
* n8n resmi mendukung Docker/Compose sebagai metode self-hosting yang direkomendasikan. ([n8n Docs][9])&lt;br /&gt;
&lt;br /&gt;
==6) Jalankan stack==&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;br /&gt;
&lt;br /&gt;
Akses lokal:&lt;br /&gt;
&lt;br /&gt;
* Open WebUI: `http://localhost:3000`&lt;br /&gt;
* n8n: `http://localhost:5678`&lt;br /&gt;
* Ollama API: `http://localhost:11434`&lt;br /&gt;
&lt;br /&gt;
Open WebUI sendiri memang memakai port kontainer `8080`, contoh Compose resminya memetakan ke host seperti `3000:8080`. ([Open WebUI][10])&lt;br /&gt;
&lt;br /&gt;
==7) Tes bahwa Ollama benar-benar pakai GPU==&lt;br /&gt;
&lt;br /&gt;
Tarik model kecil dulu:&lt;br /&gt;
&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2&lt;br /&gt;
 docker exec -it ollama ollama run llama3.2&lt;br /&gt;
&lt;br /&gt;
Ollama memang mendokumentasikan `docker exec -it ollama ollama run llama3.2` sebagai contoh setelah container aktif. ([Ollama][11])&lt;br /&gt;
&lt;br /&gt;
Tes log:&lt;br /&gt;
&lt;br /&gt;
 docker logs -f ollama&lt;br /&gt;
&lt;br /&gt;
Sambil jalan, buka terminal lain:&lt;br /&gt;
&lt;br /&gt;
 watch -n 1 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau VRAM/GPU util naik saat inferensi, berarti RTX 4060 dipakai.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==8) Cara termudah menghubungkan n8n ke Ollama==&lt;br /&gt;
&lt;br /&gt;
Di n8n, untuk request ke Ollama lokal di jaringan Compose, gunakan base URL:&lt;br /&gt;
&lt;br /&gt;
 http://ollama:11434&lt;br /&gt;
&lt;br /&gt;
Kalau n8n perlu memanggil API chat/generate, endpoint Ollama tetap lewat service name `ollama` karena semua container ada di network Compose yang sama. Ini sejalan dengan cara Open WebUI diarahkan ke Ollama memakai URL backend internal. ([Open WebUI][8])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==9) Instal Orange Data Mining yang aman==&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, saya sarankan '''jangan didockerkan''' kalau tujuannya GUI desktop biasa. Cara resmi Orange untuk platform Linux lain adalah pakai `pip`, dan bila sistem belum menyediakan PyQt, pasang '''PyQt6''' dan '''PyQt6-WebEngine''', lalu `pip install orange3`. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y \&lt;br /&gt;
   python3-pip python3-venv python3-dev build-essential \&lt;br /&gt;
   libxcb-cursor0 libxkbcommon-x11-0 libgl1 libegl1 libopengl0&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv ~/orangenv&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 python -m pip install --upgrade pip setuptools wheel&lt;br /&gt;
 &lt;br /&gt;
 pip install PyQt6 PyQt6-WebEngine&lt;br /&gt;
 pip install orange3&lt;br /&gt;
 pip install Orange3-Text wordcloud&lt;br /&gt;
&lt;br /&gt;
Jalankan:&lt;br /&gt;
&lt;br /&gt;
 python -m Orange.canvas&lt;br /&gt;
&lt;br /&gt;
Add-on memang bisa dipasang dari '''Options → Add-ons''', dan '''Word Cloud''' adalah bagian dari add-on Text Mining. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==10) Siapkan akses GPU untuk Orange dengan aman==&lt;br /&gt;
&lt;br /&gt;
Ini bagian yang perlu jujur: '''Orange tidak otomatis memakai GPU untuk semua widget'''. Widget seperti '''Word Cloud''' didokumentasikan sebagai widget visualisasi teks biasa; dokumentasinya tidak menyebut kebutuhan GPU khusus. Jadi GPU RTX 4060 di Orange lebih realistis dipakai saat Anda menjalankan library CUDA lewat '''Python Script widget''' atau alur Python lain. ([Orange Data Mining][12])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda ingin Orange bisa memanggil GPU, cukup tambahkan library Python yang CUDA-enabled ke venv Orange. NVIDIA menjelaskan CUDA Toolkit untuk Linux adalah toolkit komputasi GPU resmi mereka. ([NVIDIA Docs][13])&lt;br /&gt;
&lt;br /&gt;
Contoh aman dan simpel:&lt;br /&gt;
&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 pip install torch&lt;br /&gt;
&lt;br /&gt;
Tes:&lt;br /&gt;
&lt;br /&gt;
 python -c &amp;quot;import torch; print('CUDA:', torch.cuda.is_available()); print(torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'No GPU')&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Kalau hasilnya `CUDA: True` dan muncul `RTX 4060`, berarti Orange bisa memakai Python yang melihat GPU. Setelah itu, di Orange Anda bisa pakai widget '''Python Script''' untuk menjalankan kode berbasis PyTorch/CUDA. Ini konsisten dengan model instalasi Orange yang berbasis lingkungan Python biasa. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==11) Ringkasan copy-paste tercepat==&lt;br /&gt;
&lt;br /&gt;
Kalau mau yang paling singkat, urutannya begini:&lt;br /&gt;
&lt;br /&gt;
 # 1. Driver NVIDIA&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
 &lt;br /&gt;
 # 2. Docker resmi&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 echo &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
 &lt;br /&gt;
 # 3. NVIDIA Container Toolkit&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends ca-certificates curl gnupg2&lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Setelah itu baru buat `docker-compose.yml` di atas dan jalankan `docker compose up -d`. Semua langkah ini mengikuti dokumentasi resmi Docker, NVIDIA Container Toolkit, Ollama, Open WebUI, dan n8n. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==12) Hal yang paling penting==&lt;br /&gt;
&lt;br /&gt;
* '''Untuk lokal saja''', bind port ke `127.0.0.1`&lt;br /&gt;
* '''GPU utama cukup dipakai Ollama'''&lt;br /&gt;
* '''Open WebUI''' cukup terhubung ke Ollama&lt;br /&gt;
* '''n8n''' tidak perlu GPU&lt;br /&gt;
* '''Orange''' aman dipasang di host, bukan Docker&lt;br /&gt;
* '''Orange + GPU''' realistis untuk workflow Python tertentu, '''bukan otomatis semua widget'''&lt;br /&gt;
&lt;br /&gt;
Kalau Anda mau, saya bisa lanjutkan dengan versi kedua yang lebih praktis lagi: saya tuliskan '''satu paket final siap copy-paste''' berisi `.env`, `docker-compose.yml`, perintah install, serta bagian '''troubleshooting''' untuk kasus `nvidia-smi gagal`, `ollama tidak detect GPU`, `Open WebUI blank`, `n8n permission`, dan `torch.cuda.is_available() = False`.&lt;br /&gt;
&lt;br /&gt;
* [1]: https://docs.docker.com/compose/how-tos/gpu-support/ &amp;quot;Enable GPU support | Docker Docs&amp;quot;&lt;br /&gt;
* [2]: https://orangedatamining.com/download/?utm_source=chatgpt.com &amp;quot;Orange Data Mining - Download.&amp;quot;&lt;br /&gt;
* [3]: https://ubuntu.com/server/docs/how-to/graphics/install-nvidia-drivers/?utm_source=chatgpt.com &amp;quot;NVIDIA drivers installation - Ubuntu Server documentation&amp;quot;&lt;br /&gt;
* [4]: https://docs.docker.com/engine/install/ubuntu/?utm_source=chatgpt.com &amp;quot;Install Docker Engine on Ubuntu&amp;quot;&lt;br /&gt;
* [5]: https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html &amp;quot;Installing the NVIDIA Container Toolkit — NVIDIA Container Toolkit&amp;quot;&lt;br /&gt;
* [6]: https://docs.docker.com/ai/model-runner/inference-engines/?utm_source=chatgpt.com &amp;quot;Inference engines&amp;quot;&lt;br /&gt;
* [7]: https://docs.n8n.io/hosting/configuration/configuration-methods/?utm_source=chatgpt.com &amp;quot;Configuration methods&amp;quot;&lt;br /&gt;
* [8]: https://docs.openwebui.com/reference/env-configuration/ &amp;quot;Environment Variable Configuration | Open WebUI&amp;quot;&lt;br /&gt;
* [9]: https://docs.n8n.io/hosting/installation/docker/?utm_source=chatgpt.com &amp;quot;Docker | n8n Docs&amp;quot;&lt;br /&gt;
* [10]: https://docs.openwebui.com/getting-started/quick-start/ &amp;quot;Quick Start | Open WebUI&amp;quot;&lt;br /&gt;
* [11]: https://docs.ollama.com/docker &amp;quot;Docker - Ollama&amp;quot;&lt;br /&gt;
* [12]: https://orangedatamining.com/widget-catalog/text-mining/wordcloud/?utm_source=chatgpt.com &amp;quot;Word Cloud - Orange Data Mining&amp;quot;&lt;br /&gt;
* [13]: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/ &amp;quot;CUDA Installation Guide for Linux — Installation Guide for Linux 13.2 documentation&amp;quot;&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ROBOT_Tempur&amp;diff=73499</id>
		<title>ROBOT Tempur</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ROBOT_Tempur&amp;diff=73499"/>
		<updated>2026-03-12T07:41:36Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Ground Drone / Land Drone */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Pengembangan teknologi '''drone dan robot''' untuk pertahanan negara sangat penting di masa depan karena beberapa alasan strategis dan praktis:&lt;br /&gt;
&lt;br /&gt;
==1. '''Efisiensi Operasional &amp;amp; Pengurangan Risiko Nyawa'''==&lt;br /&gt;
* Drone dan robot dapat menggantikan peran prajurit dalam misi berbahaya, seperti '''pengintaian di medan musuh''', '''pembasmian ranjau''', atau '''operasi di lingkungan beracun'''.&lt;br /&gt;
* Menggunakan teknologi ini mengurangi risiko korban jiwa dalam operasi militer atau penanggulangan terorisme.&lt;br /&gt;
&lt;br /&gt;
==2. '''Keunggulan dalam Pengintaian &amp;amp; Intelijen'''==&lt;br /&gt;
* Drone dapat digunakan untuk '''pengawasan real-time''', memungkinkan deteksi dini terhadap ancaman tanpa harus mengirimkan personel langsung ke lokasi.&lt;br /&gt;
* AI yang tertanam dalam drone dapat menganalisis pergerakan musuh dan memberikan '''prediksi strategi lawan'''.&lt;br /&gt;
&lt;br /&gt;
==3. '''Penguatan Pertahanan Udara &amp;amp; Perang Asimetris'''==&lt;br /&gt;
* Negara-negara besar seperti AS, Rusia, dan China sudah menggunakan '''drone tempur''' (UCAV - Unmanned Combat Aerial Vehicle) dalam berbagai operasi militer.&lt;br /&gt;
* Drone dapat melakukan serangan presisi ke target musuh tanpa perlu menerbangkan pesawat tempur berawak.&lt;br /&gt;
* Dalam perang asimetris, drone dapat digunakan oleh negara dengan anggaran militer terbatas untuk melawan musuh yang lebih besar dengan '''strategi gerilya berbasis teknologi'''.&lt;br /&gt;
&lt;br /&gt;
==4. '''Pencegahan &amp;amp; Penanganan Ancaman Siber'''==&lt;br /&gt;
* '''Robot keamanan siber''' bisa dikembangkan untuk '''mendeteksi serangan siber secara otomatis''' dan menanggulangi ancaman sebelum terjadi kerusakan besar pada sistem pertahanan.&lt;br /&gt;
* Drone juga bisa digunakan untuk mengidentifikasi '''serangan elektromagnetik (EMP) atau serangan drone musuh''' yang berpotensi mengganggu infrastruktur pertahanan.&lt;br /&gt;
&lt;br /&gt;
==5. '''Otomatisasi Logistik &amp;amp; Dukungan Medis'''==&lt;br /&gt;
* Robot dan drone dapat mempercepat '''pengiriman logistik ke medan perang''' tanpa keterlibatan langsung manusia.&lt;br /&gt;
* '''Drone medis''' bisa mengirim suplai obat atau melakukan '''evakuasi korban''' di wilayah konflik tanpa perlu mengirim personel medis langsung.&lt;br /&gt;
&lt;br /&gt;
==6. '''Ekonomi Pertahanan yang Lebih Efisien'''==&lt;br /&gt;
* Mengembangkan drone dan robot lebih hemat dibanding '''memproduksi dan memelihara armada pesawat tempur atau kendaraan tempur tradisional'''.&lt;br /&gt;
* Operasi drone lebih murah dibanding operasi militer dengan jet tempur yang membutuhkan pilot terlatih dan perawatan mahal.&lt;br /&gt;
&lt;br /&gt;
==7. '''Penguatan Pertahanan Maritim &amp;amp; Perbatasan'''==&lt;br /&gt;
* Drone laut (USV - Unmanned Surface Vehicle) dapat digunakan untuk '''pengawasan wilayah perairan''', terutama untuk '''mendeteksi kapal asing atau penyelundupan di perbatasan'''.&lt;br /&gt;
* Robot bawah air (UUV - Unmanned Underwater Vehicle) dapat digunakan untuk '''mendeteksi kapal selam musuh atau ranjau laut'''.&lt;br /&gt;
&lt;br /&gt;
==8. '''Kemampuan Respons Cepat terhadap Ancaman'''==&lt;br /&gt;
* Dengan AI, drone dan robot dapat mengambil '''keputusan cepat''' dalam situasi darurat, seperti '''serangan mendadak dari musuh'''.&lt;br /&gt;
* Negara yang memiliki '''armada drone patroli otomatis''' akan lebih siap menghadapi ancaman serangan udara maupun darat.&lt;br /&gt;
&lt;br /&gt;
==9. '''Perlombaan Teknologi Militer di Dunia'''==&lt;br /&gt;
* Banyak negara besar sudah berlomba-lomba dalam mengembangkan '''military AI, drone swarm (drone berkelompok), dan robot tempur'''.&lt;br /&gt;
* Jika sebuah negara '''tidak berinvestasi dalam teknologi ini''', maka akan tertinggal dalam strategi pertahanan modern.&lt;br /&gt;
&lt;br /&gt;
==10. '''Adaptasi dengan Medan Perang Masa Depan'''==&lt;br /&gt;
* Perang masa depan tidak hanya akan terjadi di '''medan darat atau udara''', tetapi juga di '''ruang siber dan menggunakan teknologi AI'''.&lt;br /&gt;
* Drone dan robot akan menjadi bagian penting dalam '''pertahanan berbasis teknologi, perang elektronik, dan pengamanan infrastruktur digital'''.&lt;br /&gt;
&lt;br /&gt;
=='''Kesimpulan'''==&lt;br /&gt;
Pengembangan drone dan robot dalam pertahanan negara bukan lagi '''opsional''', tetapi sudah menjadi '''kebutuhan strategis'''. Negara yang tidak mengembangkan teknologi ini akan '''tertinggal secara militer''', rentan terhadap serangan siber, dan kurang efisien dalam menangani ancaman modern. Oleh karena itu, '''investasi dalam teknologi drone dan robot militer sangat krusial''' untuk memastikan '''kedaulatan dan keamanan nasional di masa depan'''.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==YOUTUBE AI for Defence==&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=VdOK8RvT7Ic - Ukraine’s Revolutionary ACOUSTIC Weapon STUNS Even NATO&lt;br /&gt;
&lt;br /&gt;
==YOUTUBE Drone dalam Pertempuran==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=YhieYTf260M - Ukrainian drone industry on the rise: New designs developed on near daily basis&lt;br /&gt;
* https://www.youtube.com/watch?v=cLnYpcQYQWQ - ONE Thing Russia Never Accounted For... Now They Are Paying In BLOOD&lt;br /&gt;
* https://www.youtube.com/watch?v=BfTHFK0pGIY - Ukraine’s First ALL-ROBOT Assault Force DEVASTATED Russian Troops&lt;br /&gt;
* https://www.youtube.com/watch?v=InP5xmECiio - Ukraine’s Long-Range Drones UNLEASHED on Crimea – THEN THIS Happens…&lt;br /&gt;
&lt;br /&gt;
===Sea Drone===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=DRlbYlbsfrY - Even Putin SHOCKED by Ukraine’s NEW Naval Weapon!&lt;br /&gt;
* https://www.youtube.com/watch?v=Iv1WbNY-yB0 - Faster than anything else in the Black Sea': See Ukraine's latest sea drone&lt;br /&gt;
* https://www.youtube.com/watch?v=yBtWgUq-bcU - How Ukraine's boat drones sank a THIRD of the Black Sea Fleet and changed naval warfare forever&lt;br /&gt;
* https://www.youtube.com/watch?v=kYY4t1VVY1E - How Ukraine Sea Drone Shot Russian Helicopter?&lt;br /&gt;
* https://www.youtube.com/watch?v=gO2sqsB8Wwc - How Ukraine Sea Drone With Heat Seeking Missile Works?&lt;br /&gt;
* https://www.youtube.com/watch?v=dVNXPRy2-_w - Inside the Ukrainian drone unit responsible for high-profile strikes&lt;br /&gt;
* https://www.youtube.com/watch?v=YFhADRYXi_8 - Naval Kamikaze Sea Drone How it works using Starlink Satellite&lt;br /&gt;
* https://www.youtube.com/watch?v=bA_f5foFmi8 - Russian Jet Hunts Sea Drone — BIG MISTAKE&lt;br /&gt;
* https://www.youtube.com/watch?v=CcYvjJfnv70 - Something TERRIFYING Just Entered The Baltic Sea... Russia Can't Stop It&lt;br /&gt;
* https://www.youtube.com/watch?v=T4sZktXct4Q - Ukrainian Drone Strike Russia Doesn’t Want You To See&lt;br /&gt;
* https://www.youtube.com/watch?v=JIUaBrK2n74 - Ukraine sea drone attack on Russian ship | Raw video&lt;br /&gt;
&lt;br /&gt;
===Ground Drone / Land Drone===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=DrZOXlXOVc0 - AI Just Started KILLING Russians on the Front Lines for the First Time&lt;br /&gt;
* https://www.youtube.com/watch?v=skPRtSIJl7Y - How Ground Drones In Ukraine Are Changing The Future Of War&lt;br /&gt;
* https://www.youtube.com/watch?v=UhyMzs_hyz4 - Mines Strapped to Ground Drones Are Ukraine's Next Game-Changer&lt;br /&gt;
* https://www.youtube.com/watch?v=R3m4z9CoXEY - The deadly ground drones giving Ukraine's frontline soldiers an advantage&lt;br /&gt;
* https://www.youtube.com/watch?v=BfTHFK0pGIY - Ukraine’s First ALL-ROBOT Assault Force DEVASTATED Russian Troops&lt;br /&gt;
* https://www.youtube.com/shorts/eeHeK1VJdTs - Ukraine’s kamikaze ground drone&lt;br /&gt;
* https://www.youtube.com/watch?v=IHJrt5myTYw - Ukrainian Land Drones Revolutionize Warfare: Clearing Mines and Deploying Explosives&lt;br /&gt;
* https://www.youtube.com/watch?v=y6swzGpJDdQ - Ukrainian Soldiers Found a GENIUS Way to Build a Robot Army&lt;br /&gt;
* https://www.youtube.com/watch?v=YrrXNZyoc8k - Unmanned Ground Vehicles in Ukraine - Robotic warfare, Ground Combat &amp;amp; Supply drones&lt;br /&gt;
&lt;br /&gt;
===Air Drone===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=GneLEijIUT8 - A night with Ukraine’s Vampire drone team near Kurakhove&lt;br /&gt;
* https://www.youtube.com/watch?v=L_djKZ4m7iQ - Australian company supplying Ukraine with cardboard drones to fight Russia&lt;br /&gt;
* https://www.youtube.com/watch?v=iE18uraHOcs - DIY Drones: War Will Never be the Same&lt;br /&gt;
* https://www.youtube.com/watch?v=vUsv9RpOMqo - Drones, Tanks, Trench Warfare &amp;amp; Everything Else | War On Tape | 2025 Ukraine Marathon | Daily Mail&lt;br /&gt;
* https://www.youtube.com/watch?v=iTaBPromlLA - Drone Ukraina MENYERANG Kereta Rusia - Lalu INI YANG TERJADI...&lt;br /&gt;
* https://www.youtube.com/watch?v=DRlbYlbsfrY - Even Putin SHOCKED by Ukraine’s NEW Naval Weapon!&lt;br /&gt;
* https://www.youtube.com/watch?v=PXLQKIkN_WI - Drone UJ-22 | How Ukraine Mysterious Drone Strikes Deep into Russia?&lt;br /&gt;
* https://www.youtube.com/watch?v=-RPNbZaFUmM - How a $55K Ukrainian Drone CRIPPLED Russia’s ENTIRE War Machine&lt;br /&gt;
* https://www.youtube.com/watch?v=Cc8nrJYvq3A - How CHEAP Ukrainian PAPER PLANES are Destroying EXPENSIVE Russian Weapons - FULL EPISODE&lt;br /&gt;
* https://www.youtube.com/watch?v=WC5fD_B-o80 - How Ukrainian DIY Drones Are Taking Out Russian Tanks | WSJ&lt;br /&gt;
* https://www.youtube.com/watch?v=Jdvh5O25mZQ - How Ukraine drone war can help Europe win the next conflict&lt;br /&gt;
* https://www.youtube.com/watch?v=CRRYmT6hhQA - Inside the Most Secret Ukrainian Factory Producing Thousands Vampire Drones a Day&lt;br /&gt;
* https://www.youtube.com/watch?v=Cmv1frnURHA - Inside Ukraine’s deadly drone war | Times Reports&lt;br /&gt;
* https://www.youtube.com/watch?v=ct0G-vZHbMk - MASTERS of Drone War - Even US Can't Believe What Ukrine is Doing&lt;br /&gt;
* https://www.youtube.com/watch?v=9gHgxl9zAjw - New Ukrainian DRONE MOTHERSHIP Can turn Any Russian Tank To Dust&lt;br /&gt;
* https://www.youtube.com/shorts/y9j1F8c037I - New Ukrainian Fixed Wing Gun Drone&lt;br /&gt;
* https://www.youtube.com/watch?v=-JN-TRYmLA8 - New Ukrainian FRAGS Go Through Russian Tanks Like Butter&lt;br /&gt;
* https://www.youtube.com/watch?v=xnYsv1diMH0 - Professor Michael Clarke assesses Ukraine's dragon drones | Ukraine war&lt;br /&gt;
* https://www.youtube.com/watch?v=a4RhMTbG3Fc - Russian drone factories are successfully shot down by Ukrainian UAVs, Russians lose air battle&lt;br /&gt;
* https://www.youtube.com/watch?v=6HtXA24chuE - Russia-Ukraine War: Ukraine Rolls Out Interceptor Drones To Boost Air Defence&lt;br /&gt;
* https://www.youtube.com/watch?v=vThvJznTdFg - Russia Will Never Forget This Ukrainian Drone Attack&lt;br /&gt;
* https://www.youtube.com/watch?v=dLP8fvx-PuU - Seconds Before Collapse: FPV Drone Hunts Russia Forces at Night | Ukraine War&lt;br /&gt;
* https://www.youtube.com/watch?v=gpJpgc8sUQI - Secret Launches of Liutyi Drones Against Russian Oil Plants and Airbases. 14th Deep-Strike Regiment&lt;br /&gt;
* https://www.youtube.com/watch?v=r6bD0uP3WGg - SHOCKING! Ukraine’s Most Powerful Drones CRIPPLE Russia’s War Machine – Putin Forced to Retreat!&lt;br /&gt;
* https://www.youtube.com/watch?v=egEwObPT8zE - Sky News at launch of long-range drones as top secret Ukrainian unit strikes Russia&lt;br /&gt;
* https://www.youtube.com/watch?v=pkb3-Wksh7Y - The Drones Winning and Losing the War in Ukraine | War On Tape Marathon | Daily Mail&lt;br /&gt;
* https://www.youtube.com/watch?v=BoirTLwxLs0 - Ukraine War: More Gun Drones&lt;br /&gt;
* https://www.youtube.com/watch?v=-PG5SJcEt0I - Ukraine's Drones Are Dropping Anti Tank Mines as Bombs&lt;br /&gt;
* https://www.youtube.com/watch?v=AaacETBOW2A - Ukrainian drones fly to front from every direction, Russia is helpless against these &amp;quot;birds&amp;quot;&lt;br /&gt;
* https://www.youtube.com/watch?v=SYj47OfPsVk - Ukraine’s drones take 53 million tons of Russian oil offline, crippling 10% of refining capacity&lt;br /&gt;
* https://www.youtube.com/watch?v=C5rAWfIjiiI - Ukrainian Drones STRIKE Russian Boat - Then THIS Happened…&lt;br /&gt;
* https://www.youtube.com/watch?v=BfTHFK0pGIY - Ukraine’s First ALL-ROBOT Assault Force DEVASTATED Russian Troops&lt;br /&gt;
* https://www.youtube.com/watch?v=unW7qBu7XSw - Ukraine's Fixed Wing Gun Drone&lt;br /&gt;
* https://www.youtube.com/watch?v=q0DcBXtxSe8 - Ukraine's flat-pack cardboard drones destroying Russian tanks&lt;br /&gt;
* https://www.youtube.com/watch?v=8hZlFT5sWaU - Ukraine’s “SEARCH &amp;amp; DESTROY” Units Are Russia’s New NIGHTMARISH Reality&lt;br /&gt;
* https://www.youtube.com/watch?v=Gha9oDJpjAU - Ukraine frontline: The killer drones changing warfare&lt;br /&gt;
* https://www.youtube.com/watch?v=VUYNRANuqH4 - Ukrainian Soldiers Unraveling The Secrets: Why Fiber-Optic FPV Drones Unstoppable Against Russian EW&lt;br /&gt;
* https://www.youtube.com/watch?v=EqPF5OLWLqE - VAMPIRE Drones Are Dropping ROBOT DOGS on Russians&lt;br /&gt;
* https://www.youtube.com/watch?v=weQdAVg-BUI - Watch Ukrainian Uncrewed Aerial Mothership Launch Kamikaze Drones in Action&lt;br /&gt;
* https://www.youtube.com/watch?v=B4OJvxq7c6E - Why UJ-22 Kamikaze Drone is BIGGEST NIGHTMARE Russia Has Ever Faced&lt;br /&gt;
* https://www.youtube.com/watch?v=9hzIMI2DLys - Why Ukraine’s Deadly Drone Operation Runs Like a ‘McDonald’s’ | WSJ&lt;br /&gt;
* https://www.youtube.com/watch?v=t_oWzN25icA - Ukraine’s DIY Drone Interceptor Takes Down 10 Iranian Shaheeds — No Missiles Needed&lt;br /&gt;
* https://www.youtube.com/watch?v=hWxUt41DlB4 - Why Ukraine’s FPV Drones are a Russian Soldier’s Nightmare | War On Tape | Daily Mail&lt;br /&gt;
* https://www.youtube.com/watch?v=cLA_qgl2YYs - Why Ukraine War's Deadly Drones Are Now Flying By 12-Mile-Long ‘Wires' | Frontline | Daily Mail&lt;br /&gt;
&lt;br /&gt;
===Glide Bomb===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=WK2W-lNBnA8 - How Ukraine is Jamming Russia's Glide Bombs!&lt;br /&gt;
* https://www.youtube.com/watch?v=XWmGKsitMD4 - The Glide BOMB War in Ukraine&lt;br /&gt;
&lt;br /&gt;
===Air Defence===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=mp9veoRY1G4 - See How Ukraine's NEW WEAPON Made Russia's Air Force USELESS&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=ROBOT_Tempur&amp;diff=73498</id>
		<title>ROBOT Tempur</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=ROBOT_Tempur&amp;diff=73498"/>
		<updated>2026-03-12T07:41:22Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Ground Drone / Land Drone */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Pengembangan teknologi '''drone dan robot''' untuk pertahanan negara sangat penting di masa depan karena beberapa alasan strategis dan praktis:&lt;br /&gt;
&lt;br /&gt;
==1. '''Efisiensi Operasional &amp;amp; Pengurangan Risiko Nyawa'''==&lt;br /&gt;
* Drone dan robot dapat menggantikan peran prajurit dalam misi berbahaya, seperti '''pengintaian di medan musuh''', '''pembasmian ranjau''', atau '''operasi di lingkungan beracun'''.&lt;br /&gt;
* Menggunakan teknologi ini mengurangi risiko korban jiwa dalam operasi militer atau penanggulangan terorisme.&lt;br /&gt;
&lt;br /&gt;
==2. '''Keunggulan dalam Pengintaian &amp;amp; Intelijen'''==&lt;br /&gt;
* Drone dapat digunakan untuk '''pengawasan real-time''', memungkinkan deteksi dini terhadap ancaman tanpa harus mengirimkan personel langsung ke lokasi.&lt;br /&gt;
* AI yang tertanam dalam drone dapat menganalisis pergerakan musuh dan memberikan '''prediksi strategi lawan'''.&lt;br /&gt;
&lt;br /&gt;
==3. '''Penguatan Pertahanan Udara &amp;amp; Perang Asimetris'''==&lt;br /&gt;
* Negara-negara besar seperti AS, Rusia, dan China sudah menggunakan '''drone tempur''' (UCAV - Unmanned Combat Aerial Vehicle) dalam berbagai operasi militer.&lt;br /&gt;
* Drone dapat melakukan serangan presisi ke target musuh tanpa perlu menerbangkan pesawat tempur berawak.&lt;br /&gt;
* Dalam perang asimetris, drone dapat digunakan oleh negara dengan anggaran militer terbatas untuk melawan musuh yang lebih besar dengan '''strategi gerilya berbasis teknologi'''.&lt;br /&gt;
&lt;br /&gt;
==4. '''Pencegahan &amp;amp; Penanganan Ancaman Siber'''==&lt;br /&gt;
* '''Robot keamanan siber''' bisa dikembangkan untuk '''mendeteksi serangan siber secara otomatis''' dan menanggulangi ancaman sebelum terjadi kerusakan besar pada sistem pertahanan.&lt;br /&gt;
* Drone juga bisa digunakan untuk mengidentifikasi '''serangan elektromagnetik (EMP) atau serangan drone musuh''' yang berpotensi mengganggu infrastruktur pertahanan.&lt;br /&gt;
&lt;br /&gt;
==5. '''Otomatisasi Logistik &amp;amp; Dukungan Medis'''==&lt;br /&gt;
* Robot dan drone dapat mempercepat '''pengiriman logistik ke medan perang''' tanpa keterlibatan langsung manusia.&lt;br /&gt;
* '''Drone medis''' bisa mengirim suplai obat atau melakukan '''evakuasi korban''' di wilayah konflik tanpa perlu mengirim personel medis langsung.&lt;br /&gt;
&lt;br /&gt;
==6. '''Ekonomi Pertahanan yang Lebih Efisien'''==&lt;br /&gt;
* Mengembangkan drone dan robot lebih hemat dibanding '''memproduksi dan memelihara armada pesawat tempur atau kendaraan tempur tradisional'''.&lt;br /&gt;
* Operasi drone lebih murah dibanding operasi militer dengan jet tempur yang membutuhkan pilot terlatih dan perawatan mahal.&lt;br /&gt;
&lt;br /&gt;
==7. '''Penguatan Pertahanan Maritim &amp;amp; Perbatasan'''==&lt;br /&gt;
* Drone laut (USV - Unmanned Surface Vehicle) dapat digunakan untuk '''pengawasan wilayah perairan''', terutama untuk '''mendeteksi kapal asing atau penyelundupan di perbatasan'''.&lt;br /&gt;
* Robot bawah air (UUV - Unmanned Underwater Vehicle) dapat digunakan untuk '''mendeteksi kapal selam musuh atau ranjau laut'''.&lt;br /&gt;
&lt;br /&gt;
==8. '''Kemampuan Respons Cepat terhadap Ancaman'''==&lt;br /&gt;
* Dengan AI, drone dan robot dapat mengambil '''keputusan cepat''' dalam situasi darurat, seperti '''serangan mendadak dari musuh'''.&lt;br /&gt;
* Negara yang memiliki '''armada drone patroli otomatis''' akan lebih siap menghadapi ancaman serangan udara maupun darat.&lt;br /&gt;
&lt;br /&gt;
==9. '''Perlombaan Teknologi Militer di Dunia'''==&lt;br /&gt;
* Banyak negara besar sudah berlomba-lomba dalam mengembangkan '''military AI, drone swarm (drone berkelompok), dan robot tempur'''.&lt;br /&gt;
* Jika sebuah negara '''tidak berinvestasi dalam teknologi ini''', maka akan tertinggal dalam strategi pertahanan modern.&lt;br /&gt;
&lt;br /&gt;
==10. '''Adaptasi dengan Medan Perang Masa Depan'''==&lt;br /&gt;
* Perang masa depan tidak hanya akan terjadi di '''medan darat atau udara''', tetapi juga di '''ruang siber dan menggunakan teknologi AI'''.&lt;br /&gt;
* Drone dan robot akan menjadi bagian penting dalam '''pertahanan berbasis teknologi, perang elektronik, dan pengamanan infrastruktur digital'''.&lt;br /&gt;
&lt;br /&gt;
=='''Kesimpulan'''==&lt;br /&gt;
Pengembangan drone dan robot dalam pertahanan negara bukan lagi '''opsional''', tetapi sudah menjadi '''kebutuhan strategis'''. Negara yang tidak mengembangkan teknologi ini akan '''tertinggal secara militer''', rentan terhadap serangan siber, dan kurang efisien dalam menangani ancaman modern. Oleh karena itu, '''investasi dalam teknologi drone dan robot militer sangat krusial''' untuk memastikan '''kedaulatan dan keamanan nasional di masa depan'''.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==YOUTUBE AI for Defence==&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=VdOK8RvT7Ic - Ukraine’s Revolutionary ACOUSTIC Weapon STUNS Even NATO&lt;br /&gt;
&lt;br /&gt;
==YOUTUBE Drone dalam Pertempuran==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=YhieYTf260M - Ukrainian drone industry on the rise: New designs developed on near daily basis&lt;br /&gt;
* https://www.youtube.com/watch?v=cLnYpcQYQWQ - ONE Thing Russia Never Accounted For... Now They Are Paying In BLOOD&lt;br /&gt;
* https://www.youtube.com/watch?v=BfTHFK0pGIY - Ukraine’s First ALL-ROBOT Assault Force DEVASTATED Russian Troops&lt;br /&gt;
* https://www.youtube.com/watch?v=InP5xmECiio - Ukraine’s Long-Range Drones UNLEASHED on Crimea – THEN THIS Happens…&lt;br /&gt;
&lt;br /&gt;
===Sea Drone===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=DRlbYlbsfrY - Even Putin SHOCKED by Ukraine’s NEW Naval Weapon!&lt;br /&gt;
* https://www.youtube.com/watch?v=Iv1WbNY-yB0 - Faster than anything else in the Black Sea': See Ukraine's latest sea drone&lt;br /&gt;
* https://www.youtube.com/watch?v=yBtWgUq-bcU - How Ukraine's boat drones sank a THIRD of the Black Sea Fleet and changed naval warfare forever&lt;br /&gt;
* https://www.youtube.com/watch?v=kYY4t1VVY1E - How Ukraine Sea Drone Shot Russian Helicopter?&lt;br /&gt;
* https://www.youtube.com/watch?v=gO2sqsB8Wwc - How Ukraine Sea Drone With Heat Seeking Missile Works?&lt;br /&gt;
* https://www.youtube.com/watch?v=dVNXPRy2-_w - Inside the Ukrainian drone unit responsible for high-profile strikes&lt;br /&gt;
* https://www.youtube.com/watch?v=YFhADRYXi_8 - Naval Kamikaze Sea Drone How it works using Starlink Satellite&lt;br /&gt;
* https://www.youtube.com/watch?v=bA_f5foFmi8 - Russian Jet Hunts Sea Drone — BIG MISTAKE&lt;br /&gt;
* https://www.youtube.com/watch?v=CcYvjJfnv70 - Something TERRIFYING Just Entered The Baltic Sea... Russia Can't Stop It&lt;br /&gt;
* https://www.youtube.com/watch?v=T4sZktXct4Q - Ukrainian Drone Strike Russia Doesn’t Want You To See&lt;br /&gt;
* https://www.youtube.com/watch?v=JIUaBrK2n74 - Ukraine sea drone attack on Russian ship | Raw video&lt;br /&gt;
&lt;br /&gt;
===Ground Drone / Land Drone===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=DrZOXlXOVc0 - &lt;br /&gt;
AI Just Started KILLING Russians on the Front Lines for the First Time&lt;br /&gt;
* https://www.youtube.com/watch?v=skPRtSIJl7Y - How Ground Drones In Ukraine Are Changing The Future Of War&lt;br /&gt;
* https://www.youtube.com/watch?v=UhyMzs_hyz4 - Mines Strapped to Ground Drones Are Ukraine's Next Game-Changer&lt;br /&gt;
* https://www.youtube.com/watch?v=R3m4z9CoXEY - The deadly ground drones giving Ukraine's frontline soldiers an advantage&lt;br /&gt;
* https://www.youtube.com/watch?v=BfTHFK0pGIY - Ukraine’s First ALL-ROBOT Assault Force DEVASTATED Russian Troops&lt;br /&gt;
* https://www.youtube.com/shorts/eeHeK1VJdTs - Ukraine’s kamikaze ground drone&lt;br /&gt;
* https://www.youtube.com/watch?v=IHJrt5myTYw - Ukrainian Land Drones Revolutionize Warfare: Clearing Mines and Deploying Explosives&lt;br /&gt;
* https://www.youtube.com/watch?v=y6swzGpJDdQ - Ukrainian Soldiers Found a GENIUS Way to Build a Robot Army&lt;br /&gt;
* https://www.youtube.com/watch?v=YrrXNZyoc8k - Unmanned Ground Vehicles in Ukraine - Robotic warfare, Ground Combat &amp;amp; Supply drones&lt;br /&gt;
&lt;br /&gt;
===Air Drone===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=GneLEijIUT8 - A night with Ukraine’s Vampire drone team near Kurakhove&lt;br /&gt;
* https://www.youtube.com/watch?v=L_djKZ4m7iQ - Australian company supplying Ukraine with cardboard drones to fight Russia&lt;br /&gt;
* https://www.youtube.com/watch?v=iE18uraHOcs - DIY Drones: War Will Never be the Same&lt;br /&gt;
* https://www.youtube.com/watch?v=vUsv9RpOMqo - Drones, Tanks, Trench Warfare &amp;amp; Everything Else | War On Tape | 2025 Ukraine Marathon | Daily Mail&lt;br /&gt;
* https://www.youtube.com/watch?v=iTaBPromlLA - Drone Ukraina MENYERANG Kereta Rusia - Lalu INI YANG TERJADI...&lt;br /&gt;
* https://www.youtube.com/watch?v=DRlbYlbsfrY - Even Putin SHOCKED by Ukraine’s NEW Naval Weapon!&lt;br /&gt;
* https://www.youtube.com/watch?v=PXLQKIkN_WI - Drone UJ-22 | How Ukraine Mysterious Drone Strikes Deep into Russia?&lt;br /&gt;
* https://www.youtube.com/watch?v=-RPNbZaFUmM - How a $55K Ukrainian Drone CRIPPLED Russia’s ENTIRE War Machine&lt;br /&gt;
* https://www.youtube.com/watch?v=Cc8nrJYvq3A - How CHEAP Ukrainian PAPER PLANES are Destroying EXPENSIVE Russian Weapons - FULL EPISODE&lt;br /&gt;
* https://www.youtube.com/watch?v=WC5fD_B-o80 - How Ukrainian DIY Drones Are Taking Out Russian Tanks | WSJ&lt;br /&gt;
* https://www.youtube.com/watch?v=Jdvh5O25mZQ - How Ukraine drone war can help Europe win the next conflict&lt;br /&gt;
* https://www.youtube.com/watch?v=CRRYmT6hhQA - Inside the Most Secret Ukrainian Factory Producing Thousands Vampire Drones a Day&lt;br /&gt;
* https://www.youtube.com/watch?v=Cmv1frnURHA - Inside Ukraine’s deadly drone war | Times Reports&lt;br /&gt;
* https://www.youtube.com/watch?v=ct0G-vZHbMk - MASTERS of Drone War - Even US Can't Believe What Ukrine is Doing&lt;br /&gt;
* https://www.youtube.com/watch?v=9gHgxl9zAjw - New Ukrainian DRONE MOTHERSHIP Can turn Any Russian Tank To Dust&lt;br /&gt;
* https://www.youtube.com/shorts/y9j1F8c037I - New Ukrainian Fixed Wing Gun Drone&lt;br /&gt;
* https://www.youtube.com/watch?v=-JN-TRYmLA8 - New Ukrainian FRAGS Go Through Russian Tanks Like Butter&lt;br /&gt;
* https://www.youtube.com/watch?v=xnYsv1diMH0 - Professor Michael Clarke assesses Ukraine's dragon drones | Ukraine war&lt;br /&gt;
* https://www.youtube.com/watch?v=a4RhMTbG3Fc - Russian drone factories are successfully shot down by Ukrainian UAVs, Russians lose air battle&lt;br /&gt;
* https://www.youtube.com/watch?v=6HtXA24chuE - Russia-Ukraine War: Ukraine Rolls Out Interceptor Drones To Boost Air Defence&lt;br /&gt;
* https://www.youtube.com/watch?v=vThvJznTdFg - Russia Will Never Forget This Ukrainian Drone Attack&lt;br /&gt;
* https://www.youtube.com/watch?v=dLP8fvx-PuU - Seconds Before Collapse: FPV Drone Hunts Russia Forces at Night | Ukraine War&lt;br /&gt;
* https://www.youtube.com/watch?v=gpJpgc8sUQI - Secret Launches of Liutyi Drones Against Russian Oil Plants and Airbases. 14th Deep-Strike Regiment&lt;br /&gt;
* https://www.youtube.com/watch?v=r6bD0uP3WGg - SHOCKING! Ukraine’s Most Powerful Drones CRIPPLE Russia’s War Machine – Putin Forced to Retreat!&lt;br /&gt;
* https://www.youtube.com/watch?v=egEwObPT8zE - Sky News at launch of long-range drones as top secret Ukrainian unit strikes Russia&lt;br /&gt;
* https://www.youtube.com/watch?v=pkb3-Wksh7Y - The Drones Winning and Losing the War in Ukraine | War On Tape Marathon | Daily Mail&lt;br /&gt;
* https://www.youtube.com/watch?v=BoirTLwxLs0 - Ukraine War: More Gun Drones&lt;br /&gt;
* https://www.youtube.com/watch?v=-PG5SJcEt0I - Ukraine's Drones Are Dropping Anti Tank Mines as Bombs&lt;br /&gt;
* https://www.youtube.com/watch?v=AaacETBOW2A - Ukrainian drones fly to front from every direction, Russia is helpless against these &amp;quot;birds&amp;quot;&lt;br /&gt;
* https://www.youtube.com/watch?v=SYj47OfPsVk - Ukraine’s drones take 53 million tons of Russian oil offline, crippling 10% of refining capacity&lt;br /&gt;
* https://www.youtube.com/watch?v=C5rAWfIjiiI - Ukrainian Drones STRIKE Russian Boat - Then THIS Happened…&lt;br /&gt;
* https://www.youtube.com/watch?v=BfTHFK0pGIY - Ukraine’s First ALL-ROBOT Assault Force DEVASTATED Russian Troops&lt;br /&gt;
* https://www.youtube.com/watch?v=unW7qBu7XSw - Ukraine's Fixed Wing Gun Drone&lt;br /&gt;
* https://www.youtube.com/watch?v=q0DcBXtxSe8 - Ukraine's flat-pack cardboard drones destroying Russian tanks&lt;br /&gt;
* https://www.youtube.com/watch?v=8hZlFT5sWaU - Ukraine’s “SEARCH &amp;amp; DESTROY” Units Are Russia’s New NIGHTMARISH Reality&lt;br /&gt;
* https://www.youtube.com/watch?v=Gha9oDJpjAU - Ukraine frontline: The killer drones changing warfare&lt;br /&gt;
* https://www.youtube.com/watch?v=VUYNRANuqH4 - Ukrainian Soldiers Unraveling The Secrets: Why Fiber-Optic FPV Drones Unstoppable Against Russian EW&lt;br /&gt;
* https://www.youtube.com/watch?v=EqPF5OLWLqE - VAMPIRE Drones Are Dropping ROBOT DOGS on Russians&lt;br /&gt;
* https://www.youtube.com/watch?v=weQdAVg-BUI - Watch Ukrainian Uncrewed Aerial Mothership Launch Kamikaze Drones in Action&lt;br /&gt;
* https://www.youtube.com/watch?v=B4OJvxq7c6E - Why UJ-22 Kamikaze Drone is BIGGEST NIGHTMARE Russia Has Ever Faced&lt;br /&gt;
* https://www.youtube.com/watch?v=9hzIMI2DLys - Why Ukraine’s Deadly Drone Operation Runs Like a ‘McDonald’s’ | WSJ&lt;br /&gt;
* https://www.youtube.com/watch?v=t_oWzN25icA - Ukraine’s DIY Drone Interceptor Takes Down 10 Iranian Shaheeds — No Missiles Needed&lt;br /&gt;
* https://www.youtube.com/watch?v=hWxUt41DlB4 - Why Ukraine’s FPV Drones are a Russian Soldier’s Nightmare | War On Tape | Daily Mail&lt;br /&gt;
* https://www.youtube.com/watch?v=cLA_qgl2YYs - Why Ukraine War's Deadly Drones Are Now Flying By 12-Mile-Long ‘Wires' | Frontline | Daily Mail&lt;br /&gt;
&lt;br /&gt;
===Glide Bomb===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=WK2W-lNBnA8 - How Ukraine is Jamming Russia's Glide Bombs!&lt;br /&gt;
* https://www.youtube.com/watch?v=XWmGKsitMD4 - The Glide BOMB War in Ukraine&lt;br /&gt;
&lt;br /&gt;
===Air Defence===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=mp9veoRY1G4 - See How Ukraine's NEW WEAPON Made Russia's Air Force USELESS&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73497</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73497"/>
		<updated>2026-03-12T05:11:55Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* 5) Buat `docker-compose.yml` */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bisa. Ini jalur yang paling gampang untuk '''Ubuntu 24.04 Desktop + RTX 4060 8GB''', '''akses lokal saja''', memakai '''Docker Compose''' untuk '''Ollama + Open WebUI + n8n''', lalu '''Orange Data Mining''' dipasang terpisah di host dalam *virtual environment*. Saya sengaja pilih desain ini karena paling mudah dirawat: GPU dipakai oleh '''Ollama''' di container, '''Open WebUI''' hanya jadi UI yang mengarah ke Ollama, dan '''n8n''' tetap ringan. Untuk '''lokal-only''', port saya bind ke `127.0.0.1` agar tidak terbuka ke LAN. Docker mendukung GPU di Compose lewat reservasi device GPU, Open WebUI mendokumentasikan pemakaian image `:cuda` untuk GPU, dan Ollama resmi mendukung Docker + NVIDIA dengan `nvidia-container-toolkit`. ([Docker Documentation][1])&lt;br /&gt;
&lt;br /&gt;
==Arsitektur yang disarankan==&lt;br /&gt;
&lt;br /&gt;
* '''Host Ubuntu 24.04''': driver NVIDIA + Docker Engine + NVIDIA Container Toolkit&lt;br /&gt;
* '''Container 1''': `ollama` memakai GPU RTX 4060&lt;br /&gt;
* '''Container 2''': `open-webui` terhubung ke `ollama`&lt;br /&gt;
* '''Container 3''': `n8n` lokal-only&lt;br /&gt;
* '''Orange Data Mining''': install normal di host, bukan di Docker, agar GUI desktop lebih aman dan simpel&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, bagian pentingnya begini: '''Orange bisa diinstal via `pip` dengan PyQt6''', dan '''Word Cloud / banyak widget Orange tidak otomatis memakai GPU'''. GPU baru berguna kalau workflow Orange memanggil library Python yang memang CUDA-enabled, misalnya lewat '''Python Script widget'''. Jadi saya akan siapkan GPU dengan aman, tapi saya tidak akan klaim semua widget Orange otomatis ngebut pakai RTX 4060. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==1) Pasang driver NVIDIA di host==&lt;br /&gt;
&lt;br /&gt;
Ubuntu menyediakan jalur resmi untuk memasang driver NVIDIA dengan `ubuntu-drivers`. Itu langkah paling aman untuk desktop Ubuntu modern. Setelah reboot, `nvidia-smi` harus menampilkan RTX 4060. ([Ubuntu][3])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
&lt;br /&gt;
Sesudah reboot:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini belum jalan, jangan lanjut ke Docker dulu.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==2) Pasang Docker Engine + Compose plugin==&lt;br /&gt;
&lt;br /&gt;
Docker mendukung Ubuntu 24.04 secara resmi, dan Docker sendiri menyarankan memakai repo resmi mereka, bukan paket Ubuntu lama yang bisa bentrok seperti `docker.io` atau `docker-compose`. Compose plugin juga resmi dipasang lewat paket `docker-compose-plugin`. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 &lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 &lt;br /&gt;
 echo \&lt;br /&gt;
   &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu \&lt;br /&gt;
   $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 &lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
&lt;br /&gt;
Cek:&lt;br /&gt;
&lt;br /&gt;
 docker --version&lt;br /&gt;
 docker compose version&lt;br /&gt;
 docker run hello-world&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==3) Pasang NVIDIA Container Toolkit==&lt;br /&gt;
&lt;br /&gt;
Ollama di Docker butuh '''NVIDIA Container Toolkit''', dan NVIDIA menuliskan langkah resmi: tambah repo, pasang toolkit, jalankan `nvidia-ctk runtime configure --runtime=docker`, lalu restart Docker. Toolkit ini memang mendukung '''Ubuntu 24.04'''. ([NVIDIA Docs][5])&lt;br /&gt;
&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends \&lt;br /&gt;
   ca-certificates curl gnupg2&lt;br /&gt;
 &lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | \&lt;br /&gt;
   sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 &lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \&lt;br /&gt;
   sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 &lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 &lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
&lt;br /&gt;
Tes akses GPU dari Docker:&lt;br /&gt;
&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini menampilkan RTX 4060, berarti GPU sudah siap dipakai container. Docker juga mencontohkan `docker run --gpus all ... nvidia-smi` sebagai uji GPU access. ([Docker Documentation][6])&lt;br /&gt;
&lt;br /&gt;
==4) Buat folder project Compose==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/ai-local-stack&lt;br /&gt;
 cd ~/ai-local-stack&lt;br /&gt;
 mkdir -p n8n_data&lt;br /&gt;
&lt;br /&gt;
Buat file `.env`:&lt;br /&gt;
&lt;br /&gt;
 nano .env&lt;br /&gt;
&lt;br /&gt;
Isi:&lt;br /&gt;
&lt;br /&gt;
 env&lt;br /&gt;
 TZ=Asia/Jakarta&lt;br /&gt;
 N8N_BASIC_AUTH_USER=admin&lt;br /&gt;
 N8N_BASIC_AUTH_PASSWORD=GantiPasswordKuat123!&lt;br /&gt;
 N8N_ENCRYPTION_KEY=GantiIniDenganStringPanjangAcakMinimal32Karakter&lt;br /&gt;
 WEBUI_SECRET_KEY=GantiIniJugaDenganStringPanjangAcak&lt;br /&gt;
&lt;br /&gt;
n8n memang memakai konfigurasi lewat environment variables di `docker-compose.yml`, dan dokumentasinya menjelaskan bahwa URL akses dan webhook bisa dikontrol lewat env vars seperti `N8N_PROTOCOL`, `N8N_HOST`, `N8N_PORT`, dan `WEBHOOK_URL`. ([n8n Docs][7])&lt;br /&gt;
&lt;br /&gt;
==5) Buat `docker-compose.yml`==&lt;br /&gt;
&lt;br /&gt;
Buat file:&lt;br /&gt;
&lt;br /&gt;
 nano docker-compose.yml&lt;br /&gt;
&lt;br /&gt;
Isi dengan ini:&lt;br /&gt;
&lt;br /&gt;
 services:&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama:/root/.ollama&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [gpu]&lt;br /&gt;
 &lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:cuda&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - WEBUI_SECRET_KEY=${WEBUI_SECRET_KEY}&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
     volumes:&lt;br /&gt;
       - open-webui:/app/backend/data&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [gpu] &lt;br /&gt;
 &lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:latest&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - N8N_HOST=localhost&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - WEBHOOK_URL=http://localhost:5678/&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=true&lt;br /&gt;
       - N8N_BASIC_AUTH_USER=${N8N_BASIC_AUTH_USER}&lt;br /&gt;
       - N8N_BASIC_AUTH_PASSWORD=${N8N_BASIC_AUTH_PASSWORD}&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=${N8N_ENCRYPTION_KEY}&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - GENERIC_TIMEZONE=${TZ}&lt;br /&gt;
       - N8N_DIAGNOSTICS_ENABLED=false&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./n8n_data:/home/node/.n8n &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama:&lt;br /&gt;
   open-webui:&lt;br /&gt;
&lt;br /&gt;
Kenapa begini:&lt;br /&gt;
&lt;br /&gt;
* `127.0.0.1:...` membuat layanan hanya bisa diakses dari mesin itu sendiri, bukan dari LAN. Ini paling pas untuk “akses lokal”.&lt;br /&gt;
* `OLLAMA_BASE_URL=http://ollama:11434` mengikuti pola env Open WebUI untuk menunjuk backend Ollama. Open WebUI mendokumentasikan `OLLAMA_BASE_URL` dan default Docker-nya memang mengarah ke backend internal/container. ([Open WebUI][8])&lt;br /&gt;
* Untuk GPU di Compose, Docker menjelaskan bahwa `deploy.resources.reservations.devices` dengan `driver: nvidia` dan `capabilities: [gpu]` adalah bentuk resmi, dan `capabilities` wajib ada. Open WebUI juga memberi contoh Compose GPU yang sama. ([Docker Documentation][1])&lt;br /&gt;
* n8n resmi mendukung Docker/Compose sebagai metode self-hosting yang direkomendasikan. ([n8n Docs][9])&lt;br /&gt;
&lt;br /&gt;
==6) Jalankan stack==&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;br /&gt;
&lt;br /&gt;
Akses lokal:&lt;br /&gt;
&lt;br /&gt;
* Open WebUI: `http://localhost:3000`&lt;br /&gt;
* n8n: `http://localhost:5678`&lt;br /&gt;
* Ollama API: `http://localhost:11434`&lt;br /&gt;
&lt;br /&gt;
Open WebUI sendiri memang memakai port kontainer `8080`, contoh Compose resminya memetakan ke host seperti `3000:8080`. ([Open WebUI][10])&lt;br /&gt;
&lt;br /&gt;
==7) Tes bahwa Ollama benar-benar pakai GPU==&lt;br /&gt;
&lt;br /&gt;
Tarik model kecil dulu:&lt;br /&gt;
&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2&lt;br /&gt;
 docker exec -it ollama ollama run llama3.2&lt;br /&gt;
&lt;br /&gt;
Ollama memang mendokumentasikan `docker exec -it ollama ollama run llama3.2` sebagai contoh setelah container aktif. ([Ollama][11])&lt;br /&gt;
&lt;br /&gt;
Tes log:&lt;br /&gt;
&lt;br /&gt;
 docker logs -f ollama&lt;br /&gt;
&lt;br /&gt;
Sambil jalan, buka terminal lain:&lt;br /&gt;
&lt;br /&gt;
 watch -n 1 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau VRAM/GPU util naik saat inferensi, berarti RTX 4060 dipakai.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==8) Cara termudah menghubungkan n8n ke Ollama==&lt;br /&gt;
&lt;br /&gt;
Di n8n, untuk request ke Ollama lokal di jaringan Compose, gunakan base URL:&lt;br /&gt;
&lt;br /&gt;
 http://ollama:11434&lt;br /&gt;
&lt;br /&gt;
Kalau n8n perlu memanggil API chat/generate, endpoint Ollama tetap lewat service name `ollama` karena semua container ada di network Compose yang sama. Ini sejalan dengan cara Open WebUI diarahkan ke Ollama memakai URL backend internal. ([Open WebUI][8])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==9) Instal Orange Data Mining yang aman==&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, saya sarankan '''jangan didockerkan''' kalau tujuannya GUI desktop biasa. Cara resmi Orange untuk platform Linux lain adalah pakai `pip`, dan bila sistem belum menyediakan PyQt, pasang '''PyQt6''' dan '''PyQt6-WebEngine''', lalu `pip install orange3`. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y \&lt;br /&gt;
   python3-pip python3-venv python3-dev build-essential \&lt;br /&gt;
   libxcb-cursor0 libxkbcommon-x11-0 libgl1 libegl1 libopengl0&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv ~/orangenv&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 python -m pip install --upgrade pip setuptools wheel&lt;br /&gt;
 &lt;br /&gt;
 pip install PyQt6 PyQt6-WebEngine&lt;br /&gt;
 pip install orange3&lt;br /&gt;
 pip install Orange3-Text wordcloud&lt;br /&gt;
&lt;br /&gt;
Jalankan:&lt;br /&gt;
&lt;br /&gt;
 python -m Orange.canvas&lt;br /&gt;
&lt;br /&gt;
Add-on memang bisa dipasang dari '''Options → Add-ons''', dan '''Word Cloud''' adalah bagian dari add-on Text Mining. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==10) Siapkan akses GPU untuk Orange dengan aman==&lt;br /&gt;
&lt;br /&gt;
Ini bagian yang perlu jujur: '''Orange tidak otomatis memakai GPU untuk semua widget'''. Widget seperti '''Word Cloud''' didokumentasikan sebagai widget visualisasi teks biasa; dokumentasinya tidak menyebut kebutuhan GPU khusus. Jadi GPU RTX 4060 di Orange lebih realistis dipakai saat Anda menjalankan library CUDA lewat '''Python Script widget''' atau alur Python lain. ([Orange Data Mining][12])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda ingin Orange bisa memanggil GPU, cukup tambahkan library Python yang CUDA-enabled ke venv Orange. NVIDIA menjelaskan CUDA Toolkit untuk Linux adalah toolkit komputasi GPU resmi mereka. ([NVIDIA Docs][13])&lt;br /&gt;
&lt;br /&gt;
Contoh aman dan simpel:&lt;br /&gt;
&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 pip install torch&lt;br /&gt;
&lt;br /&gt;
Tes:&lt;br /&gt;
&lt;br /&gt;
 python -c &amp;quot;import torch; print('CUDA:', torch.cuda.is_available()); print(torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'No GPU')&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Kalau hasilnya `CUDA: True` dan muncul `RTX 4060`, berarti Orange bisa memakai Python yang melihat GPU. Setelah itu, di Orange Anda bisa pakai widget '''Python Script''' untuk menjalankan kode berbasis PyTorch/CUDA. Ini konsisten dengan model instalasi Orange yang berbasis lingkungan Python biasa. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==11) Ringkasan copy-paste tercepat==&lt;br /&gt;
&lt;br /&gt;
Kalau mau yang paling singkat, urutannya begini:&lt;br /&gt;
&lt;br /&gt;
 # 1. Driver NVIDIA&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
 &lt;br /&gt;
 # 2. Docker resmi&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 echo &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
 &lt;br /&gt;
 # 3. NVIDIA Container Toolkit&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends ca-certificates curl gnupg2&lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Setelah itu baru buat `docker-compose.yml` di atas dan jalankan `docker compose up -d`. Semua langkah ini mengikuti dokumentasi resmi Docker, NVIDIA Container Toolkit, Ollama, Open WebUI, dan n8n. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==12) Hal yang paling penting==&lt;br /&gt;
&lt;br /&gt;
* '''Untuk lokal saja''', bind port ke `127.0.0.1`&lt;br /&gt;
* '''GPU utama cukup dipakai Ollama'''&lt;br /&gt;
* '''Open WebUI''' cukup terhubung ke Ollama&lt;br /&gt;
* '''n8n''' tidak perlu GPU&lt;br /&gt;
* '''Orange''' aman dipasang di host, bukan Docker&lt;br /&gt;
* '''Orange + GPU''' realistis untuk workflow Python tertentu, '''bukan otomatis semua widget'''&lt;br /&gt;
&lt;br /&gt;
Kalau Anda mau, saya bisa lanjutkan dengan versi kedua yang lebih praktis lagi: saya tuliskan '''satu paket final siap copy-paste''' berisi `.env`, `docker-compose.yml`, perintah install, serta bagian '''troubleshooting''' untuk kasus `nvidia-smi gagal`, `ollama tidak detect GPU`, `Open WebUI blank`, `n8n permission`, dan `torch.cuda.is_available() = False`.&lt;br /&gt;
&lt;br /&gt;
* [1]: https://docs.docker.com/compose/how-tos/gpu-support/ &amp;quot;Enable GPU support | Docker Docs&amp;quot;&lt;br /&gt;
* [2]: https://orangedatamining.com/download/?utm_source=chatgpt.com &amp;quot;Orange Data Mining - Download.&amp;quot;&lt;br /&gt;
* [3]: https://ubuntu.com/server/docs/how-to/graphics/install-nvidia-drivers/?utm_source=chatgpt.com &amp;quot;NVIDIA drivers installation - Ubuntu Server documentation&amp;quot;&lt;br /&gt;
* [4]: https://docs.docker.com/engine/install/ubuntu/?utm_source=chatgpt.com &amp;quot;Install Docker Engine on Ubuntu&amp;quot;&lt;br /&gt;
* [5]: https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html &amp;quot;Installing the NVIDIA Container Toolkit — NVIDIA Container Toolkit&amp;quot;&lt;br /&gt;
* [6]: https://docs.docker.com/ai/model-runner/inference-engines/?utm_source=chatgpt.com &amp;quot;Inference engines&amp;quot;&lt;br /&gt;
* [7]: https://docs.n8n.io/hosting/configuration/configuration-methods/?utm_source=chatgpt.com &amp;quot;Configuration methods&amp;quot;&lt;br /&gt;
* [8]: https://docs.openwebui.com/reference/env-configuration/ &amp;quot;Environment Variable Configuration | Open WebUI&amp;quot;&lt;br /&gt;
* [9]: https://docs.n8n.io/hosting/installation/docker/?utm_source=chatgpt.com &amp;quot;Docker | n8n Docs&amp;quot;&lt;br /&gt;
* [10]: https://docs.openwebui.com/getting-started/quick-start/ &amp;quot;Quick Start | Open WebUI&amp;quot;&lt;br /&gt;
* [11]: https://docs.ollama.com/docker &amp;quot;Docker - Ollama&amp;quot;&lt;br /&gt;
* [12]: https://orangedatamining.com/widget-catalog/text-mining/wordcloud/?utm_source=chatgpt.com &amp;quot;Word Cloud - Orange Data Mining&amp;quot;&lt;br /&gt;
* [13]: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/ &amp;quot;CUDA Installation Guide for Linux — Installation Guide for Linux 13.2 documentation&amp;quot;&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73496</id>
		<title>LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM:_Ubuntu_24.04_desktop_-_Ollama_n8n_open-webui_orange_GPU_4060&amp;diff=73496"/>
		<updated>2026-03-11T06:01:23Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: Created page with &amp;quot;Bisa. Ini jalur yang paling gampang untuk '''Ubuntu 24.04 Desktop + RTX 4060 8GB''', '''akses lokal saja''', memakai '''Docker Compose''' untuk '''Ollama + Open WebUI + n8n'''...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bisa. Ini jalur yang paling gampang untuk '''Ubuntu 24.04 Desktop + RTX 4060 8GB''', '''akses lokal saja''', memakai '''Docker Compose''' untuk '''Ollama + Open WebUI + n8n''', lalu '''Orange Data Mining''' dipasang terpisah di host dalam *virtual environment*. Saya sengaja pilih desain ini karena paling mudah dirawat: GPU dipakai oleh '''Ollama''' di container, '''Open WebUI''' hanya jadi UI yang mengarah ke Ollama, dan '''n8n''' tetap ringan. Untuk '''lokal-only''', port saya bind ke `127.0.0.1` agar tidak terbuka ke LAN. Docker mendukung GPU di Compose lewat reservasi device GPU, Open WebUI mendokumentasikan pemakaian image `:cuda` untuk GPU, dan Ollama resmi mendukung Docker + NVIDIA dengan `nvidia-container-toolkit`. ([Docker Documentation][1])&lt;br /&gt;
&lt;br /&gt;
==Arsitektur yang disarankan==&lt;br /&gt;
&lt;br /&gt;
* '''Host Ubuntu 24.04''': driver NVIDIA + Docker Engine + NVIDIA Container Toolkit&lt;br /&gt;
* '''Container 1''': `ollama` memakai GPU RTX 4060&lt;br /&gt;
* '''Container 2''': `open-webui` terhubung ke `ollama`&lt;br /&gt;
* '''Container 3''': `n8n` lokal-only&lt;br /&gt;
* '''Orange Data Mining''': install normal di host, bukan di Docker, agar GUI desktop lebih aman dan simpel&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, bagian pentingnya begini: '''Orange bisa diinstal via `pip` dengan PyQt6''', dan '''Word Cloud / banyak widget Orange tidak otomatis memakai GPU'''. GPU baru berguna kalau workflow Orange memanggil library Python yang memang CUDA-enabled, misalnya lewat '''Python Script widget'''. Jadi saya akan siapkan GPU dengan aman, tapi saya tidak akan klaim semua widget Orange otomatis ngebut pakai RTX 4060. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==1) Pasang driver NVIDIA di host==&lt;br /&gt;
&lt;br /&gt;
Ubuntu menyediakan jalur resmi untuk memasang driver NVIDIA dengan `ubuntu-drivers`. Itu langkah paling aman untuk desktop Ubuntu modern. Setelah reboot, `nvidia-smi` harus menampilkan RTX 4060. ([Ubuntu][3])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
&lt;br /&gt;
Sesudah reboot:&lt;br /&gt;
&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini belum jalan, jangan lanjut ke Docker dulu.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==2) Pasang Docker Engine + Compose plugin==&lt;br /&gt;
&lt;br /&gt;
Docker mendukung Ubuntu 24.04 secara resmi, dan Docker sendiri menyarankan memakai repo resmi mereka, bukan paket Ubuntu lama yang bisa bentrok seperti `docker.io` atau `docker-compose`. Compose plugin juga resmi dipasang lewat paket `docker-compose-plugin`. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 &lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 &lt;br /&gt;
 echo \&lt;br /&gt;
   &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu \&lt;br /&gt;
   $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 &lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 &lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
&lt;br /&gt;
Cek:&lt;br /&gt;
&lt;br /&gt;
 docker --version&lt;br /&gt;
 docker compose version&lt;br /&gt;
 docker run hello-world&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==3) Pasang NVIDIA Container Toolkit==&lt;br /&gt;
&lt;br /&gt;
Ollama di Docker butuh '''NVIDIA Container Toolkit''', dan NVIDIA menuliskan langkah resmi: tambah repo, pasang toolkit, jalankan `nvidia-ctk runtime configure --runtime=docker`, lalu restart Docker. Toolkit ini memang mendukung '''Ubuntu 24.04'''. ([NVIDIA Docs][5])&lt;br /&gt;
&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends \&lt;br /&gt;
   ca-certificates curl gnupg2&lt;br /&gt;
 &lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | \&lt;br /&gt;
   sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 &lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \&lt;br /&gt;
   sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \&lt;br /&gt;
   sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 &lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 &lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
&lt;br /&gt;
Tes akses GPU dari Docker:&lt;br /&gt;
&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau ini menampilkan RTX 4060, berarti GPU sudah siap dipakai container. Docker juga mencontohkan `docker run --gpus all ... nvidia-smi` sebagai uji GPU access. ([Docker Documentation][6])&lt;br /&gt;
&lt;br /&gt;
==4) Buat folder project Compose==&lt;br /&gt;
&lt;br /&gt;
 mkdir -p ~/ai-local-stack&lt;br /&gt;
 cd ~/ai-local-stack&lt;br /&gt;
 mkdir -p n8n_data&lt;br /&gt;
&lt;br /&gt;
Buat file `.env`:&lt;br /&gt;
&lt;br /&gt;
 nano .env&lt;br /&gt;
&lt;br /&gt;
Isi:&lt;br /&gt;
&lt;br /&gt;
 env&lt;br /&gt;
 TZ=Asia/Jakarta&lt;br /&gt;
 N8N_BASIC_AUTH_USER=admin&lt;br /&gt;
 N8N_BASIC_AUTH_PASSWORD=GantiPasswordKuat123!&lt;br /&gt;
 N8N_ENCRYPTION_KEY=GantiIniDenganStringPanjangAcakMinimal32Karakter&lt;br /&gt;
 WEBUI_SECRET_KEY=GantiIniJugaDenganStringPanjangAcak&lt;br /&gt;
&lt;br /&gt;
n8n memang memakai konfigurasi lewat environment variables di `docker-compose.yml`, dan dokumentasinya menjelaskan bahwa URL akses dan webhook bisa dikontrol lewat env vars seperti `N8N_PROTOCOL`, `N8N_HOST`, `N8N_PORT`, dan `WEBHOOK_URL`. ([n8n Docs][7])&lt;br /&gt;
&lt;br /&gt;
==5) Buat `docker-compose.yml`==&lt;br /&gt;
&lt;br /&gt;
Buat file:&lt;br /&gt;
&lt;br /&gt;
 nano docker-compose.yml&lt;br /&gt;
&lt;br /&gt;
Isi dengan ini:&lt;br /&gt;
&lt;br /&gt;
 yaml&lt;br /&gt;
 services:&lt;br /&gt;
   ollama:&lt;br /&gt;
     image: ollama/ollama:latest&lt;br /&gt;
     container_name: ollama&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:11434:11434&amp;quot;&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ollama:/root/.ollama&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [gpu]&lt;br /&gt;
 &lt;br /&gt;
   open-webui:&lt;br /&gt;
     image: ghcr.io/open-webui/open-webui:cuda&lt;br /&gt;
     container_name: open-webui&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:3000:8080&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - WEBUI_SECRET_KEY=${WEBUI_SECRET_KEY}&lt;br /&gt;
       - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
     volumes:&lt;br /&gt;
       - open-webui:/app/backend/data&lt;br /&gt;
     deploy:&lt;br /&gt;
       resources:&lt;br /&gt;
         reservations:&lt;br /&gt;
           devices:&lt;br /&gt;
             - driver: nvidia&lt;br /&gt;
               count: all&lt;br /&gt;
               capabilities: [gpu] &lt;br /&gt;
 &lt;br /&gt;
   n8n:&lt;br /&gt;
     image: docker.n8n.io/n8nio/n8n:latest&lt;br /&gt;
     container_name: n8n&lt;br /&gt;
     restart: unless-stopped&lt;br /&gt;
     depends_on:&lt;br /&gt;
       - ollama&lt;br /&gt;
     ports:&lt;br /&gt;
       - &amp;quot;127.0.0.1:5678:5678&amp;quot;&lt;br /&gt;
     environment:&lt;br /&gt;
       - TZ=${TZ}&lt;br /&gt;
       - N8N_HOST=localhost&lt;br /&gt;
       - N8N_PORT=5678&lt;br /&gt;
       - N8N_PROTOCOL=http&lt;br /&gt;
       - WEBHOOK_URL=http://localhost:5678/&lt;br /&gt;
       - N8N_BASIC_AUTH_ACTIVE=true&lt;br /&gt;
       - N8N_BASIC_AUTH_USER=${N8N_BASIC_AUTH_USER}&lt;br /&gt;
       - N8N_BASIC_AUTH_PASSWORD=${N8N_BASIC_AUTH_PASSWORD}&lt;br /&gt;
       - N8N_ENCRYPTION_KEY=${N8N_ENCRYPTION_KEY}&lt;br /&gt;
       - N8N_SECURE_COOKIE=false&lt;br /&gt;
       - GENERIC_TIMEZONE=${TZ}&lt;br /&gt;
       - N8N_DIAGNOSTICS_ENABLED=false&lt;br /&gt;
     volumes:&lt;br /&gt;
       - ./n8n_data:/home/node/.n8n &lt;br /&gt;
 &lt;br /&gt;
 volumes:&lt;br /&gt;
   ollama:&lt;br /&gt;
   open-webui:&lt;br /&gt;
&lt;br /&gt;
Kenapa begini:&lt;br /&gt;
&lt;br /&gt;
* `127.0.0.1:...` membuat layanan hanya bisa diakses dari mesin itu sendiri, bukan dari LAN. Ini paling pas untuk “akses lokal”.&lt;br /&gt;
* `OLLAMA_BASE_URL=http://ollama:11434` mengikuti pola env Open WebUI untuk menunjuk backend Ollama. Open WebUI mendokumentasikan `OLLAMA_BASE_URL` dan default Docker-nya memang mengarah ke backend internal/container. ([Open WebUI][8])&lt;br /&gt;
* Untuk GPU di Compose, Docker menjelaskan bahwa `deploy.resources.reservations.devices` dengan `driver: nvidia` dan `capabilities: [gpu]` adalah bentuk resmi, dan `capabilities` wajib ada. Open WebUI juga memberi contoh Compose GPU yang sama. ([Docker Documentation][1])&lt;br /&gt;
* n8n resmi mendukung Docker/Compose sebagai metode self-hosting yang direkomendasikan. ([n8n Docs][9])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==6) Jalankan stack==&lt;br /&gt;
&lt;br /&gt;
 docker compose pull&lt;br /&gt;
 docker compose up -d&lt;br /&gt;
 docker compose ps&lt;br /&gt;
&lt;br /&gt;
Akses lokal:&lt;br /&gt;
&lt;br /&gt;
* Open WebUI: `http://localhost:3000`&lt;br /&gt;
* n8n: `http://localhost:5678`&lt;br /&gt;
* Ollama API: `http://localhost:11434`&lt;br /&gt;
&lt;br /&gt;
Open WebUI sendiri memang memakai port kontainer `8080`, contoh Compose resminya memetakan ke host seperti `3000:8080`. ([Open WebUI][10])&lt;br /&gt;
&lt;br /&gt;
==7) Tes bahwa Ollama benar-benar pakai GPU==&lt;br /&gt;
&lt;br /&gt;
Tarik model kecil dulu:&lt;br /&gt;
&lt;br /&gt;
 docker exec -it ollama ollama pull llama3.2&lt;br /&gt;
 docker exec -it ollama ollama run llama3.2&lt;br /&gt;
&lt;br /&gt;
Ollama memang mendokumentasikan `docker exec -it ollama ollama run llama3.2` sebagai contoh setelah container aktif. ([Ollama][11])&lt;br /&gt;
&lt;br /&gt;
Tes log:&lt;br /&gt;
&lt;br /&gt;
 docker logs -f ollama&lt;br /&gt;
&lt;br /&gt;
Sambil jalan, buka terminal lain:&lt;br /&gt;
&lt;br /&gt;
 watch -n 1 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Kalau VRAM/GPU util naik saat inferensi, berarti RTX 4060 dipakai.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==8) Cara termudah menghubungkan n8n ke Ollama==&lt;br /&gt;
&lt;br /&gt;
Di n8n, untuk request ke Ollama lokal di jaringan Compose, gunakan base URL:&lt;br /&gt;
&lt;br /&gt;
 http://ollama:11434&lt;br /&gt;
&lt;br /&gt;
Kalau n8n perlu memanggil API chat/generate, endpoint Ollama tetap lewat service name `ollama` karena semua container ada di network Compose yang sama. Ini sejalan dengan cara Open WebUI diarahkan ke Ollama memakai URL backend internal. ([Open WebUI][8])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==9) Instal Orange Data Mining yang aman==&lt;br /&gt;
&lt;br /&gt;
Untuk Orange, saya sarankan '''jangan didockerkan''' kalau tujuannya GUI desktop biasa. Cara resmi Orange untuk platform Linux lain adalah pakai `pip`, dan bila sistem belum menyediakan PyQt, pasang '''PyQt6''' dan '''PyQt6-WebEngine''', lalu `pip install orange3`. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y \&lt;br /&gt;
   python3-pip python3-venv python3-dev build-essential \&lt;br /&gt;
   libxcb-cursor0 libxkbcommon-x11-0 libgl1 libegl1 libopengl0&lt;br /&gt;
 &lt;br /&gt;
 python3 -m venv ~/orangenv&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 python -m pip install --upgrade pip setuptools wheel&lt;br /&gt;
 &lt;br /&gt;
 pip install PyQt6 PyQt6-WebEngine&lt;br /&gt;
 pip install orange3&lt;br /&gt;
 pip install Orange3-Text wordcloud&lt;br /&gt;
&lt;br /&gt;
Jalankan:&lt;br /&gt;
&lt;br /&gt;
 python -m Orange.canvas&lt;br /&gt;
&lt;br /&gt;
Add-on memang bisa dipasang dari '''Options → Add-ons''', dan '''Word Cloud''' adalah bagian dari add-on Text Mining. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==10) Siapkan akses GPU untuk Orange dengan aman==&lt;br /&gt;
&lt;br /&gt;
Ini bagian yang perlu jujur: '''Orange tidak otomatis memakai GPU untuk semua widget'''. Widget seperti '''Word Cloud''' didokumentasikan sebagai widget visualisasi teks biasa; dokumentasinya tidak menyebut kebutuhan GPU khusus. Jadi GPU RTX 4060 di Orange lebih realistis dipakai saat Anda menjalankan library CUDA lewat '''Python Script widget''' atau alur Python lain. ([Orange Data Mining][12])&lt;br /&gt;
&lt;br /&gt;
Kalau Anda ingin Orange bisa memanggil GPU, cukup tambahkan library Python yang CUDA-enabled ke venv Orange. NVIDIA menjelaskan CUDA Toolkit untuk Linux adalah toolkit komputasi GPU resmi mereka. ([NVIDIA Docs][13])&lt;br /&gt;
&lt;br /&gt;
Contoh aman dan simpel:&lt;br /&gt;
&lt;br /&gt;
 source ~/orangenv/bin/activate&lt;br /&gt;
 pip install torch&lt;br /&gt;
&lt;br /&gt;
Tes:&lt;br /&gt;
&lt;br /&gt;
 python -c &amp;quot;import torch; print('CUDA:', torch.cuda.is_available()); print(torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'No GPU')&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Kalau hasilnya `CUDA: True` dan muncul `RTX 4060`, berarti Orange bisa memakai Python yang melihat GPU. Setelah itu, di Orange Anda bisa pakai widget '''Python Script''' untuk menjalankan kode berbasis PyTorch/CUDA. Ini konsisten dengan model instalasi Orange yang berbasis lingkungan Python biasa. ([Orange Data Mining][2])&lt;br /&gt;
&lt;br /&gt;
==11) Ringkasan copy-paste tercepat==&lt;br /&gt;
&lt;br /&gt;
Kalau mau yang paling singkat, urutannya begini:&lt;br /&gt;
&lt;br /&gt;
 # 1. Driver NVIDIA&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ubuntu-drivers-common&lt;br /&gt;
 sudo ubuntu-drivers install&lt;br /&gt;
 sudo reboot&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
 &lt;br /&gt;
 # 2. Docker resmi&lt;br /&gt;
 sudo apt remove -y docker.io docker-compose docker-compose-v2 podman-docker containerd runc || true&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y ca-certificates curl gnupg&lt;br /&gt;
 sudo install -m 0755 -d /etc/apt/keyrings&lt;br /&gt;
 curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 sudo chmod a+r /etc/apt/keyrings/docker.gpg&lt;br /&gt;
 echo &amp;quot;deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $(. /etc/os-release &amp;amp;&amp;amp; echo &amp;quot;$VERSION_CODENAME&amp;quot;) stable&amp;quot; | sudo tee /etc/apt/sources.list.d/docker.list &amp;gt; /dev/null&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin&lt;br /&gt;
 sudo usermod -aG docker $USER&lt;br /&gt;
 newgrp docker&lt;br /&gt;
 &lt;br /&gt;
 # 3. NVIDIA Container Toolkit&lt;br /&gt;
 sudo apt-get update &amp;amp;&amp;amp; sudo apt-get install -y --no-install-recommends ca-certificates curl gnupg2&lt;br /&gt;
 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg&lt;br /&gt;
 curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list&lt;br /&gt;
 sudo apt-get update&lt;br /&gt;
 sudo apt-get install -y nvidia-container-toolkit&lt;br /&gt;
 sudo nvidia-ctk runtime configure --runtime=docker&lt;br /&gt;
 sudo systemctl restart docker&lt;br /&gt;
 docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi&lt;br /&gt;
&lt;br /&gt;
Setelah itu baru buat `docker-compose.yml` di atas dan jalankan `docker compose up -d`. Semua langkah ini mengikuti dokumentasi resmi Docker, NVIDIA Container Toolkit, Ollama, Open WebUI, dan n8n. ([Docker Documentation][4])&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==12) Hal yang paling penting==&lt;br /&gt;
&lt;br /&gt;
* '''Untuk lokal saja''', bind port ke `127.0.0.1`&lt;br /&gt;
* '''GPU utama cukup dipakai Ollama'''&lt;br /&gt;
* '''Open WebUI''' cukup terhubung ke Ollama&lt;br /&gt;
* '''n8n''' tidak perlu GPU&lt;br /&gt;
* '''Orange''' aman dipasang di host, bukan Docker&lt;br /&gt;
* '''Orange + GPU''' realistis untuk workflow Python tertentu, '''bukan otomatis semua widget'''&lt;br /&gt;
&lt;br /&gt;
Kalau Anda mau, saya bisa lanjutkan dengan versi kedua yang lebih praktis lagi: saya tuliskan '''satu paket final siap copy-paste''' berisi `.env`, `docker-compose.yml`, perintah install, serta bagian '''troubleshooting''' untuk kasus `nvidia-smi gagal`, `ollama tidak detect GPU`, `Open WebUI blank`, `n8n permission`, dan `torch.cuda.is_available() = False`.&lt;br /&gt;
&lt;br /&gt;
* [1]: https://docs.docker.com/compose/how-tos/gpu-support/ &amp;quot;Enable GPU support | Docker Docs&amp;quot;&lt;br /&gt;
* [2]: https://orangedatamining.com/download/?utm_source=chatgpt.com &amp;quot;Orange Data Mining - Download.&amp;quot;&lt;br /&gt;
* [3]: https://ubuntu.com/server/docs/how-to/graphics/install-nvidia-drivers/?utm_source=chatgpt.com &amp;quot;NVIDIA drivers installation - Ubuntu Server documentation&amp;quot;&lt;br /&gt;
* [4]: https://docs.docker.com/engine/install/ubuntu/?utm_source=chatgpt.com &amp;quot;Install Docker Engine on Ubuntu&amp;quot;&lt;br /&gt;
* [5]: https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html &amp;quot;Installing the NVIDIA Container Toolkit — NVIDIA Container Toolkit&amp;quot;&lt;br /&gt;
* [6]: https://docs.docker.com/ai/model-runner/inference-engines/?utm_source=chatgpt.com &amp;quot;Inference engines&amp;quot;&lt;br /&gt;
* [7]: https://docs.n8n.io/hosting/configuration/configuration-methods/?utm_source=chatgpt.com &amp;quot;Configuration methods&amp;quot;&lt;br /&gt;
* [8]: https://docs.openwebui.com/reference/env-configuration/ &amp;quot;Environment Variable Configuration | Open WebUI&amp;quot;&lt;br /&gt;
* [9]: https://docs.n8n.io/hosting/installation/docker/?utm_source=chatgpt.com &amp;quot;Docker | n8n Docs&amp;quot;&lt;br /&gt;
* [10]: https://docs.openwebui.com/getting-started/quick-start/ &amp;quot;Quick Start | Open WebUI&amp;quot;&lt;br /&gt;
* [11]: https://docs.ollama.com/docker &amp;quot;Docker - Ollama&amp;quot;&lt;br /&gt;
* [12]: https://orangedatamining.com/widget-catalog/text-mining/wordcloud/?utm_source=chatgpt.com &amp;quot;Word Cloud - Orange Data Mining&amp;quot;&lt;br /&gt;
* [13]: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/ &amp;quot;CUDA Installation Guide for Linux — Installation Guide for Linux 13.2 documentation&amp;quot;&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
	<entry>
		<id>https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73495</id>
		<title>LLM</title>
		<link rel="alternate" type="text/html" href="https://onnocenter.or.id/wiki/index.php?title=LLM&amp;diff=73495"/>
		<updated>2026-03-11T05:54:19Z</updated>

		<summary type="html">&lt;p&gt;Onnowpurbo: /* Pranala Menarik */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Dalam bahasa awam, paling gampang bayangkan ChatGPT atau Gemini. Ini adalah keluarga LLM.&lt;br /&gt;
&lt;br /&gt;
Model Bahasa Besar (Large Language Models atau LLM) adalah sistem kecerdasan buatan yang dirancang untuk memahami dan menghasilkan teks yang menyerupai bahasa manusia. LLM dilatih menggunakan teknik pembelajaran mendalam (*deep learning*) pada kumpulan data teks yang sangat besar, memungkinkan mereka untuk mengenali pola, struktur, dan konteks dalam bahasa alami.&lt;br /&gt;
&lt;br /&gt;
Arsitektur utama yang mendasari LLM adalah *transformer*, yang terdiri dari jaringan saraf dengan kemampuan *self-attention*. Komponen ini memungkinkan model untuk memproses dan memahami hubungan antara kata dan frasa dalam sebuah teks, sehingga mampu menghasilkan prediksi atau respons yang relevan dan koheren.&lt;br /&gt;
&lt;br /&gt;
Penerapan LLM sangat luas, mencakup berbagai bidang seperti penerjemahan bahasa, pembuatan konten, analisis sentimen, dan interaksi melalui asisten virtual. Kemampuan mereka untuk memahami dan menghasilkan bahasa alami telah menjadikan LLM sebagai komponen penting dalam pengembangan teknologi berbasis bahasa. &lt;br /&gt;
&lt;br /&gt;
[[File:LLM-1.png|center|200px|thumb]]&lt;br /&gt;
&lt;br /&gt;
Cara kerja LLM (Large Language Model) bisa dijelaskan secara sederhana melalui gambar “Basic LLM Prompt Cycle” di atas.&lt;br /&gt;
&lt;br /&gt;
==1. Pengguna memberikan '''prompt'''==&lt;br /&gt;
&lt;br /&gt;
Siklus dimulai ketika pengguna (User) mengajukan sebuah pertanyaan atau instruksi, yang disebut sebagai '''prompt'''. Prompt ini bisa berupa kalimat, paragraf, atau bahkan percakapan yang kompleks. Pada gambar, ini ditunjukkan oleh panah dari '''User''' menuju kotak '''Prompt'''.&lt;br /&gt;
&lt;br /&gt;
==2. Prompt masuk ke dalam '''Context Window'''==  &lt;br /&gt;
&lt;br /&gt;
LLM memiliki yang namanya '''Context Window''', yaitu tempat di mana model mengingat semua informasi yang relevan untuk memahami apa yang sedang dibahas. Prompt dari pengguna akan masuk ke dalam '''context window''' ini (kotak merah di tengah gambar). Di sini, LLM menganalisis prompt berdasarkan konteks sebelumnya jika ada.&lt;br /&gt;
&lt;br /&gt;
==3. LLM menghasilkan jawaban berdasarkan konteks==&lt;br /&gt;
&lt;br /&gt;
Setelah memahami isi prompt dalam konteks yang diberikan, LLM (kotak kuning) memprosesnya menggunakan jaringan neural besar yang telah dilatih dari jutaan data teks. Hasilnya berupa '''output''' atau jawaban, yang muncul di bagian akhir siklus (kotak biru '''Output''').&lt;br /&gt;
&lt;br /&gt;
==4. '''Output''' menjadi bagian dari konteks berikutnya==&lt;br /&gt;
&lt;br /&gt;
Yang menarik, output ini akan secara otomatis dimasukkan kembali ke dalam '''context window''', bersama dengan prompt tambahan jika ada. Ini memungkinkan percakapan atau pemrosesan yang berkelanjutan, seperti chat dengan memori pendek. Pada gambar, ini ditunjukkan oleh panah melengkung dari '''Output''' kembali ke '''Context Window'''.&lt;br /&gt;
&lt;br /&gt;
Singkatnya, LLM bekerja seperti otak yang terus mengingat apa yang dikatakan sebelumnya (context), lalu memberikan jawaban berdasarkan pemahaman konteks dan prompt terbaru. Proses ini terjadi berulang-ulang selama interaksi berlangsung.&lt;br /&gt;
&lt;br /&gt;
==Referensi==&lt;br /&gt;
&lt;br /&gt;
* https://lmstudio.ai/&lt;br /&gt;
* https://huggingface.co/Ichsan2895/Merak-7B-v2 - Huggingface bahasa Indonesia.&lt;br /&gt;
* https://ubuntu.com/blog/deploying-open-language-models-on-ubuntu&lt;br /&gt;
&lt;br /&gt;
===GPT===&lt;br /&gt;
&lt;br /&gt;
GPT, or Generative Pre-trained Transformer, represents a category of Large Language Models (LLMs) proficient in generating human-like text, offering capabilities in content creation and personalized recommendations.&lt;br /&gt;
&lt;br /&gt;
* https://www.aporia.com/learn/exploring-architectures-and-capabilities-of-foundational-llms/&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ubuntu 24.04 desktop - Ollama n8n open-webui orange GPU 4060]]&lt;br /&gt;
* [[LLM: LLama Instal Ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 docker open-webio]]&lt;br /&gt;
* [[LLM: ollama install ubuntu 24.04 python open-webio]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui gpu full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webio + n8n full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + postgresql full docker]] '''RECOMMENDED'''&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama + open-webui + n8n + comfyui + GPU nvidia docker]]&lt;br /&gt;
* [[LLM: ubuntu 24.04 ollama instalasi CUDA]]&lt;br /&gt;
* [[LLM: ollama serve run pull list rm]]&lt;br /&gt;
* [[LLM: ollama pull models]]&lt;br /&gt;
* [[LLM: tips untuk CPU]]&lt;br /&gt;
* [[LLM: ollama train model sendiri]]&lt;br /&gt;
* https://levelup.gitconnected.com/building-a-million-parameter-llm-from-scratch-using-python-f612398f06c2 '''Generate Model'''&lt;br /&gt;
* [[LLM: ollama PDF RAG]]&lt;br /&gt;
* [[LLM: ollama Indonesia]]&lt;br /&gt;
* [[LLM: Halusinasi Cek]]&lt;br /&gt;
&lt;br /&gt;
==Nvidia==&lt;br /&gt;
&lt;br /&gt;
* [[nvidia: ubuntu 24.04]]&lt;br /&gt;
&lt;br /&gt;
==GPT4All==&lt;br /&gt;
&lt;br /&gt;
* https://www.linkedin.com/pulse/more-let-me-check-internal-knowledge-instant-answers-makes-dhani-b4yvc/?trackingId=sgChWaTfS8KsTx06aU6KSw%3D%3D&lt;br /&gt;
* https://linuxconfig.org/how-to-install-gpt4all-on-ubuntu-debian-linux&lt;br /&gt;
* [[GPT4All: vs llama.cpp]]&lt;br /&gt;
* [[GPT4All: Install]]&lt;br /&gt;
* [[GPT4All: Install CLI]]&lt;br /&gt;
* [[GPT4All: Install CLI + open-webui]]&lt;br /&gt;
* [[GPT4All: Pilihan Model Bahasa Indonesia]]&lt;br /&gt;
&lt;br /&gt;
==Ollama Create==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: ollama create Modelfile]]&lt;br /&gt;
* [[LLM: create model tanpa huggingface]]&lt;br /&gt;
* [[LLM: create model script]]&lt;br /&gt;
&lt;br /&gt;
==Open-WebUI==&lt;br /&gt;
&lt;br /&gt;
'''WARNING:''' Open-WebUI sebaiknya di jalankan di ubuntu 22.04, karena versi python di 24.04 terlalu tinggi.&lt;br /&gt;
* https://www.leadergpu.com/catalog/584-open-webui-all-in-one&lt;br /&gt;
&lt;br /&gt;
* [[OpenWebUI: python knowledge PDF CLI API upload]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===RAG===&lt;br /&gt;
&lt;br /&gt;
* https://docs.openwebui.com/features/rag&lt;br /&gt;
* https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* [[LLM: multiple open-webui]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan vector database]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql]]&lt;br /&gt;
* [[LLM: RAG ollama menggunakan open-webui dan postgresql docker]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan chroma]]&lt;br /&gt;
* [[LLM: RAG ollama dengan open-webui dan qdrant]]&lt;br /&gt;
* [[LLM: Perbanding Berbagai Vector Database]]&lt;br /&gt;
* [[LLM: RAG menggunakan open-webui ollama]]&lt;br /&gt;
* [[LLM: RAG coba]]&lt;br /&gt;
* [[LLM: RAG contoh]]&lt;br /&gt;
* [[LLM: RAG Thomas Jay]]&lt;br /&gt;
* [[LLM: RAG-streamlit-llamaindex-ollama]]&lt;br /&gt;
* [[LLM: RAG-GPT]] '''tidak untuk ubuntu 24.04''''&lt;br /&gt;
* [[LLM: RAG open source no API di google collab]]&lt;br /&gt;
* [[LLM: RAG open source no API no Huggingface di google collab]]&lt;br /&gt;
* [[LLM: open-webui browse URL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* https://lightning.ai/maxidiazbattan/studios/rag-streamlit-llamaindex-ollama&lt;br /&gt;
* https://medium.com/@pankaj_pandey/unleash-the-power-of-rag-in-python-a-simple-guide-6f59590a82c3&lt;br /&gt;
* https://hackernoon.com/simple-wonders-of-rag-using-ollama-langchain-and-chromadb&lt;br /&gt;
* https://github.com/ThomasJay/RAG&lt;br /&gt;
* https://medium.com/@vndee.huynh/build-your-own-rag-and-run-it-locally-langchain-ollama-streamlit-181d42805895&lt;br /&gt;
* https://medium.com/rahasak/build-rag-application-using-a-llm-running-on-local-computer-with-ollama-and-llamaindex-97703153db20 &lt;br /&gt;
* https://github.com/Isa1asN/local-rag&lt;br /&gt;
* https://github.com/AllAboutAI-YT/easy-local-rag&lt;br /&gt;
* * https://weaviate.io/blog/local-rag-with-ollama-and-weaviate&lt;br /&gt;
* https://dnsmichi.at/2024/01/10/local-ollama-running-mixtral-llm-llama-index-own-tweet-context/&lt;br /&gt;
* https://www.elastic.co/search-labs/blog/elasticsearch-rag-with-llama3-opensource-and-elastic&lt;br /&gt;
* https://github.com/infiniflow/ragflow?tab=readme-ov-file&lt;br /&gt;
&lt;br /&gt;
===RAG Youtube===&lt;br /&gt;
&lt;br /&gt;
* https://www.youtube.com/watch?v=Ylz779Op9Pw - How to Improve LLMs with RAG (Overview + Python Code)&lt;br /&gt;
* https://www.youtube.com/watch?v=daZOrbMs61I - Gemma 2 - Local RAG with Ollama and LangChain&lt;br /&gt;
* https://www.youtube.com/watch?v=2TJxpyO3ei4 - Python RAG Tutorial (with Local LLMs): AI For Your PDFs&lt;br /&gt;
* https://www.youtube.com/watch?v=7VAs22LC7WE - Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload&lt;br /&gt;
* https://github.com/elastic/elasticsearch-labs/tree/main/notebooks/integrations/llama3&lt;br /&gt;
&lt;br /&gt;
==Pentest==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Ollama Pentest]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==NER==&lt;br /&gt;
&lt;br /&gt;
* [[NER: Konsep]]&lt;br /&gt;
* [[NER: Scan JPG NER JSON]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==ComfyUI==&lt;br /&gt;
&lt;br /&gt;
* [[ComfyUI: instalasi]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Fine Tuning Model==&lt;br /&gt;
&lt;br /&gt;
* [[LLM: Extract .jsonl dari file pdf]]&lt;br /&gt;
* [[LLM: Fine Tuning]]&lt;br /&gt;
* [[LLM: Fine Tuning Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:1b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama gemma3:270m]]&lt;br /&gt;
* [[LLM: Fine Tine Ollama deepseek-r1:1.5b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:0.6b]]&lt;br /&gt;
* [[LLM: Fine Tune Ollama qwen3:1.7b]]&lt;br /&gt;
* [[LLM: Lora]]&lt;br /&gt;
* [[LLM: Lora vs Fine Tuning]]&lt;br /&gt;
* [[LLM: Lora tidak bisa dijalankan di ollama]]&lt;/div&gt;</summary>
		<author><name>Onnowpurbo</name></author>
	</entry>
</feed>