Jurnal Ilmu Komputer dan Desain Komunikasi Visual Volume 10. Nomor 2. Desember 2025 ISSN (Ceta. : 2541-4550 ISSN (Onlin. : 2541-4585 Integrasi Konteks Semantik dan Waktu Akses dalam Algoritma Caching Adaptif untuk Optimalisasi Kinerja Sistem Mahendra Dewantoro1*. Budi Santosa2. Mugi Prasetio3. Amarudin4 1,2,3,4 Magister Ilmu Komputer. Fakultas Teknik dan Ilmu Komputer. Universitas Teknokrat Indonesia Jln. Pagaralam No 9-11. Kec. Labuhan Ratu. Bandar Lampung. Lampung mahendradewantoro@teknokrat. id, 2budi. santosa@teknokrat. mugiprasetio@teknokrat. id, 4amarudin@teknokrat. Abstrak Dalam sistem komputasi modern, caching merupakan teknik penting untuk meningkatkan efisiensi akses data. Namun, algoritma caching tradisional seperti LRU dan LFU memiliki keterbatasan dalam menangani dinamika data yang kompleks. Penelitian ini mengusulkan algoritma caching adaptif yang mengintegrasikan konteks semantik dan profil waktu akses untuk meningkatkan kinerja sistem. Pendekatan ini memanfaatkan model embedding semantik berbasis Sentence-BERT dan analisis temporal dari pola akses pengguna. Pengujian dilakukan melalui simulasi menggunakan dataset nyata dan sintetis, serta dibandingkan dengan metode caching konvensional seperti KVShare dan LRU. Hasil evaluasi menunjukkan bahwa algoritma yang diusulkan mampu meningkatkan cache hit rate hingga lebih dari 83%, mengurangi latensi rata-rata menjadi sekitar 61 ms, dan menjaga efisiensi penggunaan sumber daya. Selain itu, algoritma ini menunjukkan kemampuan adaptif yang baik terhadap perubahan pola akses dinamis serta responsif terhadap penyesuaian parameter Dengan demikian, integrasi konteks semantik dan informasi temporal memberikan kontribusi signifikan dalam pengoptimalan manajemen cache. Algoritma ini berpotensi diterapkan pada sistem edge computing, layanan LLM, dan platform berbasis cloud. Saran untuk penelitian lanjutan meliputi implementasi dalam lingkungan nyata, penerapan pembelajaran mesin prediktif, serta eksplorasi parameter adaptif secara dinamis. Kata kunciAicaching adaptif, konteks semantik, waktu akses, performa sistem, embedding Abstract In modern computing systems, caching is an essential technique for improving data access efficiency. However, traditional caching algorithms such as LRU and LFU have limitations in handling complex data dynamics. This research proposes an adaptive caching algorithm that integrates semantic context and access time profiles to enhance system The approach utilizes a semantic embedding model based on Sentence-BERT and temporal analysis of user access patterns. Testing was conducted through simulations using real and synthetic datasets, and compared with conventional caching methods such as KVShare and LRU. Evaluation results show that the proposed algorithm is capable of increasing the cache hit rate by more than 83%, reducing average latency to around 61 ms, and maintaining resource usage efficiency. In addition, the algorithm demonstrates strong adaptability to dynamic access pattern changes and responsiveness to semantic parameter adjustments. Thus, the integration of semantic context and temporal information provides significant contributions to optimizing cache management. This algorithm has potential applications in edge computing systems. LLM services, and cloud-based platforms. Suggestions for future research include implementation in Ciptaan disebarluaskan di bawah Lisensi Creative Commons Attribution 4. 0 International License. Jurnal Ilmu Komputer dan Desain Komunikasi Visual Volume 10. Nomor 2. Desember 2025 ISSN (Ceta. : 2541-4550 ISSN (Onlin. : 2541-4585 real-world environments, application of predictive machine learning models, and dynamic exploration of adaptive parameters. KeywordsAiadaptive caching, semantic context, access timing, system performance, vector PENDAHULUAN Dalam era digital saat ini, sistem komputasi menghadapi tantangan besar dalam mengelola data secara efisien, terutama dalam konteks akses data yang cepat dan Caching, sebagai teknik penyimpanan data sementara, telah menjadi solusi utama untuk meningkatkan kinerja sistem dengan mengurangi waktu akses data yang sering digunakan. Namun, pendekatan caching tradisional seperti Least Recently Used (LRU) dan Least Frequently Used (LFU) memiliki keterbatasan dalam menangani dinamika data yang kompleks dan beragam (Wang et al. , 2. , (Lalfakzuala et al. Salah satu isu utama dalam sistem caching adalah ketidakmampuan untuk mempertimbangkan konteks semantik dari data yang disimpan (Ajarroud et al. , 2. (Yuan et al. , 2. Data dengan makna yang berbeda dapat memiliki prioritas yang berbeda dalam akses, namun algoritma caching konvensional tidak mampu membedakan hal ini. Sebagai contoh, dalam layanan Large Language Model (LLM) di edge computing, penggunaan caching kontekstual adaptif telah terbukti meningkatkan hit rate cache hingga lebih dari 80% dan mengurangi latensi hingga 40% (G. Liu et al. Integrasi konteks semantik dalam kebijakan caching memungkinkan sistem untuk memahami makna dan relevansi data bagi pengguna, sehingga data yang lebih penting atau sering digunakan dapat diprioritaskan dalam cache. Pendekatan ini telah diterapkan dalam berbagai domain, seperti layanan web, sistem file, dan aplikasi Dalam konteks ini, algoritma caching yang mempertimbangkan konteks semantik dan waktu akses dapat secara adaptif menyesuaikan kebijakan caching berdasarkan pola penggunaan dan kebutuhan pengguna. Penelitian sebelumnya telah menunjukkan bahwa pendekatan caching semantik dapat meningkatkan efisiensi sistem secara signifikan. Sebagai contoh, dalam sistem manajemen cache untuk layanan LLM, pendekatan seperti KVShare dan SentenceKV telah menunjukkan peningkatan efisiensi dengan memanfaatkan kesamaan semantik antar permintaan pengguna (Li et al. , 2. Selain itu, penggunaan teknik pembelajaran mesin, seperti reinforcement learning, telah digunakan untuk mengembangkan kebijakan caching yang lebih adaptif dan kontekstual (Wu et al. , 2. , (Qian et al. Namun, meskipun berbagai pendekatan telah dikembangkan, masih terdapat tantangan dalam mengintegrasikan konteks semantik dan waktu akses secara efektif dalam algoritma caching adaptif. Beberapa pendekatan masih bergantung pada threshold statis atau tidak mempertimbangkan dinamika penggunaan data secara Ciptaan disebarluaskan di bawah Lisensi Creative Commons Attribution 4. 0 International License. Jurnal Ilmu Komputer dan Desain Komunikasi Visual Volume 10. Nomor 2. Desember 2025 ISSN (Ceta. : 2541-4550 ISSN (Onlin. : 2541-4585 real-time. Oleh karena itu, diperlukan penelitian lebih lanjut untuk mengembangkan algoritma caching yang lebih adaptif dan kontekstual (Weerasinghe et al. , 2. Penelitian ini bertujuan untuk mengembangkan algoritma caching adaptif yang mengintegrasikan konteks semantik dan waktu akses untuk mengoptimalkan kinerja Dengan memanfaatkan informasi semantik dari data dan profil waktu akses, algoritma yang dikembangkan diharapkan dapat meningkatkan efisiensi caching, mengurangi latensi, dan meningkatkan pengalaman pengguna secara keseluruhan. Kontribusi utama dari penelitian ini meliputi: pengembangan model anotasi semantik untuk data yang di-cache, integrasi profil waktu akses dalam kebijakan caching, dan evaluasi kinerja algoritma caching adaptif yang diusulkan dalam berbagai skenario penggunaan (Wang et al. , 2. Diharapkan bahwa hasil dari penelitian ini dapat memberikan kontribusi signifikan dalam bidang manajemen cache dan meningkatkan efisiensi sistem komputasi modern. METODE PENELITIAN 1 Rancangan Penelitian Model algoritma caching adaptif ini dikembangkan berdasarkan integrasi eksplisit antara Konteks Semantik dan Profil Waktu Akses untuk menentukan kebijakan Konteks semantik data diekstrak menggunakan teknik semantic embedding . BERT atau Sentence-BERT) untuk menghasilkan representasi vektor (V_se. , yang kemudian digunakan untuk menghitung Skor Relevansi Semantik (S_se. berdasarkan kesamaan kosinus dengan data di cache. Skor ini mengindikasikan kedekatan konten. Secara simultan, algoritma memanfaatkan data akses historis untuk membangun Profil Temporal yang menghasilkan Skor Temporal (S_tem. , mencerminkan probabilitas akses ulang dalam jangka waktu dekat. Untuk menentukan kebijakan caching . enempatan dan penggantian ite. , kedua faktor ini digabungkan secara linier untuk mendapatkan Skor Prioritas Akhir (S_priorita. : S_prioritas = . S_sem . - ) . S_temp. Nilai adalah faktor pembobotan adaptif yang disesuaikan secara dinamis oleh algoritma berdasarkan kinerja sistem cache . isalnya, cache hit rate histori. , memastikan bahwa strategi caching dapat bergeser antara fokus semantik dan temporal sesuai kondisi beban kerja (Pratap et al. , 2. Item dengan S_prioritas terendah akan menjadi kandidat pertama untuk dikeluarkan dari cache. Ciptaan disebarluaskan di bawah Lisensi Creative Commons Attribution 4. 0 International License. Jurnal Ilmu Komputer dan Desain Komunikasi Visual Volume 10. Nomor 2. Desember 2025 ISSN (Ceta. : 2541-4550 ISSN (Onlin. : 2541-4585 Gambar 1. Diagram Rancangan Penelitian Populasi dan Sampel Penelitian Populasi dalam penelitian ini mencakup sistem komputasi edge dan layanan Large Language Model (LLM) yang sangat bergantung pada kecepatan dan efisiensi dalam pengambilan data (Huang et al. , 2. Sampel data diambil dari dua sumber utama, yaitu dataset trace permintaan dari layanan publik seperti OpenWebText dan LLM Caching dataset (Penedo et al. , 2. , serta dataset penggunaan internal yang menggambarkan interaksi nyata pengguna dengan sistem berbasis Natural Language Processing (NLP) (Lauriola et al. , 2. Sasaran utama dari simulasi adalah beban kerja . pengguna yang merepresentasikan skenario nyata dalam pengaplikasian sistem. Skenario tersebut mencakup penggunaan chatbot berbasis LLM, sistem rekomendasi yang didukung oleh pemrosesan bahasa alami, serta web server pada lingkungan komputasi edge yang melayani permintaan berbasis konten. Tabel 1. Contoh Karakteristik Dataset Dataset Ukuran (GB) Jenis Data Periode Sumber OpenWebText LLMC Request traces 2021Ae2022 HuggingFace KVShare Embedding Simulasi ACM Paper Ciptaan disebarluaskan di bawah Lisensi Creative Commons Attribution 4. 0 International License. Jurnal Ilmu Komputer dan Desain Komunikasi Visual Volume 10. Nomor 2. Desember 2025 ISSN (Ceta. : 2541-4550 ISSN (Onlin. : 2541-4585 Dataset Samples Ukuran (GB) Jenis Data Periode Sumber Dataset Teknik Pengumpulan Data dan Pengembangan Instrumen Pengumpulan data dalam penelitian ini dilakukan melalui dua pendekatan Pertama, melalui simulasi lalu lintas data akses, di mana sistem diuji terhadap berbagai beban kerja menggunakan data akses historis serta model permintaan sintetis . ynthetic reques. (Chen et al. , 2. Kedua, melalui instrumentasi sistem uji, di mana algoritma caching diintegrasikan ke dalam simulator cache, seperti CacheSim, untuk menghasilkan log performa yang mencakup berbagai metrik evaluasi (J. Liu et al. Data yang masuk ke sistem diproses menggunakan model Sentence-BERT guna menghasilkan representasi vektor semantik dari setiap permintaan untuk mendukung anotasi semantik (Shibayama & Shinnou, 2. Selain itu, profil waktu akses dibentuk dengan menganalisis histogram akses berdasarkan timestamp dan frekuensi, sehingga memungkinkan sistem untuk menangkap pola temporal yang relevan dalam strategi caching adaptif. Gambar 2. Arsitektur Pemrosesan Data dan Anotasi Semantik Teknik Analisis Data Analisis data dalam penelitian ini dilakukan dengan mengevaluasi metrik performa dari sistem caching, yang mencakup beberapa indikator utama. Pertama. Cache Hit Rate (CHR), yaitu persentase permintaan yang dapat dijawab langsung oleh cache tanpa perlu mengakses sumber data utama. Kedua. Average Latency (AL), yaitu waktu rata-rata yang dibutuhkan untuk memenuhi permintaan data oleh system (J. Liu et , 2. Ketiga. Throughput dan Resource Utilization, yang mencerminkan efisiensi penggunaan sumber daya seperti beban prosesor dan memori selama proses eksekusi Ciptaan disebarluaskan di bawah Lisensi Creative Commons Attribution 4. 0 International License. Jurnal Ilmu Komputer dan Desain Komunikasi Visual Volume 10. Nomor 2. Desember 2025 ISSN (Ceta. : 2541-4550 ISSN (Onlin. : 2541-4585 Analisis dilakukan menggunakan metode statistik deskriptif dan inferensial untuk memahami tren dan perbedaan performa antar pendekatan. Selain itu, dilakukan pengujian signifikansi menggunakan uji ANOVA atau t-test antar skenario simulasi guna mengukur dampak integrasi konteks semantik dan informasi temporal terhadap kinerja sistem caching secara keseluruhan. Algoritma LRU KVShare Proposed Model Tabel 2. Contoh Hasil Simulasi Cache Hit Rate Latensi Rata-rata (%) . Resource Usage (%) HASIL DAN PEMBAHASAN Pada bagian ini menyajikan hasil evaluasi algoritma caching adaptif yang mengintegrasikan konteks semantik dan waktu akses. Evaluasi difokuskan pada lima aspek utama: . peningkatan cache hit rate, untuk menilai efektivitas pemilihan data. pengurangan latensi rata-rata, sebagai indikator efisiensi waktu akses. efisiensi penggunaan resource, mencakup konsumsi CPU dan memori. adaptabilitas terhadap pola akses dinamis, untuk mengukur kemampuan algoritma dalam menyesuaikan diri dengan perubahan beban. analisis sensitivitas parameter, guna mengevaluasi robustnes terhadap variasi konfigurasi. Hasil yang diperoleh memberikan dasar kuat untuk menilai keunggulan pendekatan yang diusulkan dibanding algoritma caching Peningkatan Cache Hit Rate Visualisasi hasil pengujian dalam bentuk boxplot memberikan gambaran yang jelas mengenai distribusi cache hit rate dari masing-masing algoritma berdasarkan data sintetis yang dikumpulkan dari 100 sampel pengujian per algoritma. Dari visualisasi tersebut, terlihat bahwa Proposed Model menunjukkan kinerja paling unggul. Median cache hit rate-nya berada pada kisaran 83Ae84%, yang mencerminkan bahwa lebih dari separuh pengujian menghasilkan tingkat keberhasilan pencocokan cache yang sangat tinggi (Mishra et al. , 2. Selain itu, rentang interkuartil (IQR) dari algoritma ini relatif sempit, yang mengindikasikan bahwa performanya tidak hanya tinggi tetapi juga konsisten di berbagai kondisi pengujian. Sementara itu. KVShare menempati posisi kedua dengan median cache hit rate sekitar 77%. Meskipun nilai ini cukup kompetitif, distribusi nilai cache hit rate pada KVShare menunjukkan rentang yang lebih lebar dibandingkan Proposed Model. Hal ini mengindikasikan bahwa algoritma ini mengalami fluktuasi performa yang lebih besar antar-sampel, meskipun secara umum tetap menunjukkan hasil yang baik. Ciptaan disebarluaskan di bawah Lisensi Creative Commons Attribution 4. 0 International License. Jurnal Ilmu Komputer dan Desain Komunikasi Visual Volume 10. Nomor 2. Desember 2025 ISSN (Ceta. : 2541-4550 ISSN (Onlin. : 2541-4585 Di sisi lain, algoritma LRU (Least Recently Use. menunjukkan performa paling rendah, dengan median cache hit rate hanya sekitar 61%. Rentang distribusinya juga lebih luas dibanding dua algoritma lainnya, menandakan adanya ketidakstabilan dan variabilitas yang tinggi dalam performa. Hal ini memperkuat indikasi bahwa LRU kurang mampu menyesuaikan diri terhadap pola akses yang dinamis, terutama dalam konteks beban kerja yang kompleks atau berubah-ubah. Secara keseluruhan, analisis boxplot ini mendukung temuan utama dalam penelitian, yaitu bahwa algoritma Proposed Model, yang mengintegrasikan konteks semantik dan waktu akses secara adaptif, mampu memberikan performa cache hit rate yang lebih tinggi, lebih stabil, dan lebih andal dibanding algoritma standar seperti KVShare dan LRU. Gambar 3. Peningkatan Cache Hit Rate Latensi Rata-rata Visualisasi dalam bentuk boxplot pada Gambar 4 memperlihatkan distribusi latensi rata-rata . alam satuan milideti. dari masing-masing algoritma berdasarkan hasil simulasi dengan 100 sampel per algoritma. Dari hasil tersebut. Proposed Model menunjukkan kinerja terbaik dalam hal waktu respons. Median latensinya berada di kisaran 60 Ae 62 ms, menjadikannya algoritma dengan waktu akses tercepat di antara ketiga metode yang diuji. Selain itu, rentang interkuartil (IQR) pada Proposed Model juga tergolong sempit, yang mencerminkan tingkat konsistensi performa yang tinggi di berbagai kondisi simulasi. Stabilitas ini menandakan bahwa pendekatan adaptif berbasis konteks semantik dan waktu akses mampu mempertahankan efisiensi dalam beragam pola permintaan (Einziger et al. , 2. Di sisi lain. KVShare menunjukkan performa menengah dengan median latensi berada pada 72Ae75 ms. Meskipun performanya lebih lambat dibanding Proposed Model, algoritma ini tetap menunjukkan efisiensi yang relatif baik. Namun, variabilitas Ciptaan disebarluaskan di bawah Lisensi Creative Commons Attribution 4. 0 International License. Jurnal Ilmu Komputer dan Desain Komunikasi Visual Volume 10. Nomor 2. Desember 2025 ISSN (Ceta. : 2541-4550 ISSN (Onlin. : 2541-4585 performa yang tercermin dari rentang distribusinya yang lebih lebar mengindikasikan bahwa KVShare mengalami fluktuasi waktu akses pada sebagian sampel, yang dapat berdampak pada pengalaman pengguna dalam konteks sistem real-time. Sementara itu. LRU (Least Recently Use. menunjukkan performa terlemah dalam pengelolaan latensi. Median latensinya mencapai sekitar 105 ms, yang secara signifikan lebih tinggi dibanding dua algoritma lainnya. Selain itu, rentang distribusi latensi LRU jauh lebih luas, dan terdapat beberapa outlier ekstrem yang menunjukkan lonjakan latensi pada kondisi tertentu. Temuan ini mengindikasikan bahwa LRU memiliki keterbatasan dalam menyesuaikan strategi caching terhadap pola akses yang dinamis dan kompleks, sehingga mengakibatkan penurunan efisiensi waktu akses data. Secara keseluruhan, hasil visualisasi ini menguatkan temuan bahwa Proposed Model mampu secara signifikan menurunkan latensi rata-rata dalam sistem caching. Hal ini menunjukkan bahwa pendekatan berbasis integrasi konteks semantik dan waktu akses tidak hanya meningkatkan cache hit rate, tetapi juga secara nyata mempercepat waktu respons sistem, menjadikannya solusi yang lebih adaptif dan efisien dalam lingkungan yang menuntut performa tinggi. Gambar 4. Penurunan Latensi Rata-rata Efisiensi Penggunaan Resource Visualisasi dalam bentuk boxplot ini menggambarkan distribusi penggunaan resource sistem . inyatakan dalam persentas. untuk masing-masing algoritma, berdasarkan 100 sampel data sintetis. Hasil menunjukkan bahwa Proposed Model memiliki median penggunaan resource sekitar 43%, dengan rentang interkuartil (IQR) yang relatif sempit, yang mencerminkan konsistensi penggunaan sumber daya antar Stabilitas ini mengindikasikan bahwa algoritma yang diusulkan mampu Ciptaan disebarluaskan di bawah Lisensi Creative Commons Attribution 4. 0 International License. Jurnal Ilmu Komputer dan Desain Komunikasi Visual Volume 10. Nomor 2. Desember 2025 ISSN (Ceta. : 2541-4550 ISSN (Onlin. : 2541-4585 mempertahankan efisiensi operasional meskipun menawarkan kinerja caching yang tinggi, tanpa menyebabkan lonjakan beban pada CPU atau memori (Demirbaga, 2. Di sisi lain. KVShare menunjukkan median penggunaan resource tertinggi, yaitu sekitar 48%, dengan distribusi nilai yang lebih lebar. Variasi yang cukup besar ini menunjukkan bahwa KVShare cenderung lebih boros dalam memanfaatkan resource, dan dalam beberapa kasus bahkan dapat memunculkan overhead sistem yang signifikan. Hal ini dapat menjadi kendala dalam implementasi pada sistem dengan keterbatasan sumber daya atau yang membutuhkan efisiensi tinggi secara berkelanjutan. Adapun LRU mencatat median penggunaan resource paling rendah, sekitar 42%, dengan distribusi yang relatif stabil. Meskipun secara kasat mata penggunaan resource ini tampak efisien, performa cache hit rate dan latensi yang rendah pada LRU menunjukkan bahwa efisiensi ini tidak disertai dengan efektivitas caching yang Dengan kata lain, penghematan resource tidak selalu sejalan dengan kinerja sistem yang optimal. Secara keseluruhan, analisis ini memperlihatkan bahwa Proposed Model mampu mencapai kompromi yang ideal antara performa dan efisiensi, yaitu memberikan kinerja caching yang tinggi dan stabil dengan penggunaan resource yang tetap moderat dan Hal ini memperkuat argumen bahwa integrasi konteks semantik dan waktu akses dalam caching adaptif tidak hanya berdampak positif pada output performa, tetapi juga menjaga keberlanjutan efisiensi sistem secara menyeluruh (Weerasinghe et al. Gambar 5. Efisiensi Penggunaan Resource Pola Akses Dinamis Visualisasi ini menunjukkan perubahan cache hit rate dari tiga algoritma cachingAiLRU. KVShare, dan Proposed ModelAiselama 10 interval waktu yang Ciptaan disebarluaskan di bawah Lisensi Creative Commons Attribution 4. 0 International License. Jurnal Ilmu Komputer dan Desain Komunikasi Visual Volume 10. Nomor 2. Desember 2025 ISSN (Ceta. : 2541-4550 ISSN (Onlin. : 2541-4585 mencerminkan dinamika pola akses data. Proposed Model menunjukkan tren peningkatan cache hit rate yang konsisten, menandakan kemampuannya dalam beradaptasi secara efektif terhadap perubahan pola akses. Adaptivitas ini menunjukkan keunggulan integrasi konteks semantik dan waktu akses dalam mekanisme caching. Sementara itu. KVShare mempertahankan cache hit rate yang relatif stabil, namun tanpa peningkatan berarti. Ini mengindikasikan bahwa meskipun cukup tahan terhadap perubahan, algoritma ini kurang responsif secara dinamis. Sebaliknya. LRU mengalami penurunan performa seiring waktu, menunjukkan keterbatasannya dalam menangani pola akses yang berubah-ubah, karena tidak mengakomodasi informasi kontekstual atau Fluktuasi kecil pada tiap titik mencerminkan variasi alami sistem atau noise simulasi, namun tidak mengubah pola utama. Secara keseluruhan, hasil ini menegaskan bahwa Proposed Model unggul dalam menjaga dan meningkatkan performa caching dalam lingkungan akses data yang dinamis (Einziger et al. , 2. Gambar 6. Pola Akses Dinamis Analisis Sensitivitas Parameter Visualisasi ini memperlihatkan dampak perubahan parameter bobot konteks semantik terhadap performa algoritma caching adaptif, dengan rentang nilai dari 0. Pada grafik kiri, terlihat bahwa cache hit rate meningkat secara signifikan seiring bertambahnya bobot konteks semantik. Hal ini menunjukkan bahwa semakin besar peran konteks semantik dalam proses seleksi data, semakin tepat cache dalam menyimpan data yang relevan, sehingga peluang cache hit meningkat dan efisiensi akses data membaik (Einziger et al. , 2. Sebaliknya, grafik kanan menunjukkan bahwa latensi rata-rata menurun ketika bobot konteks semantik meningkat. Peningkatan cache hit rate berkontribusi langsung terhadap penurunan waktu akses, karena lebih banyak permintaan dapat dilayani langsung dari cache tanpa perlu mengakses sumber data utama. Ciptaan disebarluaskan di bawah Lisensi Creative Commons Attribution 4. 0 International License. Jurnal Ilmu Komputer dan Desain Komunikasi Visual Volume 10. Nomor 2. Desember 2025 ISSN (Ceta. : 2541-4550 ISSN (Onlin. : 2541-4585 Tren ini menegaskan bahwa performa algoritma cukup sensitif terhadap nilai parameter ini, sehingga pemilihan bobot yang tepat menjadi kunci untuk mencapai keseimbangan optimal antara efisiensi penyimpanan dan kecepatan akses data. Adanya fluktuasi minor pada grafik mencerminkan variabilitas sistemik atau noise simulasi, namun tidak mengubah kesimpulan bahwa penguatan peran konteks semantik secara signifikan meningkatkan kinerja caching adaptif. Gambar 7. Dampak Perubahan Parameter Bobot Konteks Semantik KESIMPULAN Berdasarkan analisis hasil pengujian yang komprehensif, disimpulkan bahwa Algoritma Caching Adaptif yang mengintegrasikan konteks semantik dan waktu akses berhasil mencapai tujuannya dalam mengoptimalkan kinerja sistem caching. Mekanisme kunci keberhasilan algoritma ini adalah strategi penentuan prioritas dinamis yang menggabungkan Skor Relevansi Semantik dan Skor Temporal melalui faktor pembobotan adaptif (), memungkinkannya beradaptasi secara cerdas terhadap pola permintaan yang kompleks. Secara kuantitatif, algoritma yang diusulkan menunjukkan keunggulan signifikan dalam tiga aspek utama: Peningkatan Cache Hit Rate, dengan median mencapai 83Ae84%, jauh melampaui KVShare . %) dan LRU . %). Penurunan Latensi Rata-rata, dengan median tercepat di kisaran 60Ae62 ms . ibanding KVShare 72Ae75 ms dan LRU 105 m. serta Konsistensi Kinerja yang tinggi, ditunjukkan oleh rentang interkuartil (IQR) yang sempit pada kedua metrik tersebut. Selain peningkatan performa, algoritma ini juga mencapai kompromi ideal antara kinerja dan efisiensi resource, mempertahankan penggunaan resource yang moderat . edian OO 43%) dan stabil. Hasil analisis menunjukkan kemampuan adaptasi yang unggul terhadap pola akses dinamis, mempertahankan dan bahkan meningkatkan hit rate seiring waktu, yang tidak dapat dicapai oleh algoritma konvensional. Terakhir, analisis sensitivitas parameter menegaskan bahwa kinerja sistem . aik hit rate maupun latens. berbanding lurus dan sensitif terhadap peningkatan bobot konteks semantik, memvalidasi bahwa peran informasi kontekstual merupakan pendorong utama efektivitas caching. Dengan demikian, penelitian ini tidak hanya membuktikan Ciptaan disebarluaskan di bawah Lisensi Creative Commons Attribution 4. 0 International License. Jurnal Ilmu Komputer dan Desain Komunikasi Visual Volume 10. Nomor 2. Desember 2025 ISSN (Ceta. : 2541-4550 ISSN (Onlin. : 2541-4585 keunggulan caching adaptif, tetapi juga membuka potensi implementasi pada sistem terdistribusi yang membutuhkan efisiensi dan respons waktu tinggi. SARAN Berdasarkan temuan dan hasil analisis dalam penelitian ini, terdapat beberapa saran yang dapat diberikan untuk pengembangan lebih lanjut. Pertama, disarankan agar algoritma caching adaptif yang diusulkan diuji dalam lingkungan sistem nyata, seperti pada platform cloud computing atau edge computing, guna memperoleh gambaran yang lebih komprehensif mengenai performanya dalam kondisi operasional sebenarnya. Selanjutnya, pengembangan model ke arah prediksi otomatis berbasis machine learning atau deep learning dapat menjadi alternatif strategis untuk meningkatkan adaptabilitas sistem terhadap pola akses data yang semakin kompleks dan dinamis. Penelitian di masa mendatang juga sebaiknya melakukan evaluasi kinerja dengan pendekatan multimetodologi, tidak hanya terbatas pada metrik cache hit rate dan latensi, tetapi juga mempertimbangkan aspek throughput, efisiensi energi, dan toleransi kesalahan, terutama dalam sistem berskala besar dan heterogen. Selain itu, eksplorasi lebih mendalam terhadap parameter adaptif, seperti bobot konteks semantik dan jendela waktu akses, sangat dianjurkan, termasuk penerapan metode tuning otomatis untuk memperoleh parameter optimal secara dinamis. Pengujian terhadap skenario beban tinggi dan penggunaan dataset berskala besar juga penting untuk menilai skalabilitas dan ketahanan algoritma terhadap tekanan sistem yang intensif. Terakhir, integrasi algoritma caching adaptif ini dengan sistem penjadwalan cerdas berbasis prioritas atau konteks dapat menjadi arah pengembangan yang menjanjikan dalam rangka meningkatkan efisiensi keseluruhan sistem informasi terdistribusi. UCAPAN TERIMA KASIH Penulis menyampaikan apresiasi dan terima kasih yang sebesar-besarnya kepada semua pihak yang telah memberikan dukungan selama proses penyusunan jurnal ini. Terutama kepada pembimbing yang telah memberikan masukan konstruktif, arahan ilmiah, serta koreksi yang sangat berarti dalam menyempurnakan isi tulisan ini. Ucapan terima kasih juga ditujukan kepada rekan-rekan peneliti dan kontributor teknis, yang telah membantu dalam proses simulasi, analisis data, dan validasi hasil penelitian. Kolaborasi yang solid menjadi fondasi penting dalam tercapainya kualitas naskah ini. Akhir kata, penulis menyampaikan terima kasih atas segala bentuk dukungan baik akademik maupun teknis yang telah membantu hingga jurnal ini dapat diselesaikan dengan baik. DAFTAR PUSTAKA