Journal of Digital Business and Technology Innovation (DBESTI) Vol. 1 No. 2 2024, 51-60 Journal of Digital Business and Technology Innovation (DBESTI) https://journal. id/index. php/DBESTI P-ISSN: 3047-1028 E-ISSN: 3032-775X PENGEMBANGAN REST API UNTUK EKSTRAKSI INFORMASI DARI RESUME MENGGUNAKAN JAVA SPRING BOOT Evry Nazyli Ciptanto1. Nasrul2 Teknik Informatika. Sekolah Tinggi Teknologi Terpadu Nurul Fikri Depok. Jawa Barat. Indonesia 16451 evry20045ti@student. id, nasrul@nurulfikri. Abstract Career platforms like Klob are among the modern recruitment methods. In the Klob career platform context, users face challenges when filling out their profile data. The main challenge is manual filling, which slows the registration and job application process. The problem required development to integrate information extraction from user resumes as an efficient The Java Spring Boot programming language built a resume information extraction backend development system. This integration also utilized Natural Language Processing (NLP) recognition algorithms using OpenNLP to improve understanding of the context of sentences on resumes. One of the OpenNLP methods used was Named Entity Recognition (NER) to identify and extract named entities. The Rule-Based Extraction approach was also specified to extract information from text based on rules. This research was based on the results of testing conducted through the User Acceptance Test (UAT), and it was found that the percentage score given had an excellent interpretation level of 91. This research provides a comprehensive overview of the effectiveness of the proposed solution in overcoming manual filling obstacles, improving user experience, and speeding up registration. Keywords: Backend. Information Extraction. Java. Natural Language Processing. Spring Boot Abstrak Platform karier seperti Klob merupakan salah satu rekrutmen modern. Dalam konteks platform karier Klob terdapat kendala yang dihadapi pengguna dalam pengisian data profil. Kendala utama adalah pengisian manual yang memperlambat proses pendaftaran dan melamar pekerjaan. Dari permasalahan tersebut dibutuhkan pengembangan untuk mengintegrasikan ekstraksi informasi dari resume pengguna sebagai solusi efisien. Dalam membangun sistem pengembangan backend ekstraksi informasi resume ini menggunakan bahasa pemrograman Java Spring Boot. Integrasi juga memanfaatkan algoritma pengenalan Natural Language Processing (NLP) menggunakan OpenNLP untuk meningkatkan pemahaman konteks kalimat pada resume. Salah satu metode OpenNLP yang dimanfaatkan adalah Named Entity Recognition (NER) untuk mengidentifikasi dan mengekstraksi entitas bernama. Pendekatan Rule Based Extraction juga ditentukan untuk melakukan ekstraksi informasi dari teks berdasarkan aturan-aturan. Penelitian ini dari hasil pengujian yang dilakukan dengan User Acceptance Test (UAT) dan didapatkan skor persentase yang diberikan memiliki tingkat interpretasi yang sangat baik sebesar 91,1%. Harapannya, dengan adanya hasil penelitian ini mampu memberikan gambaran keseluruhan mengenai efektivitas solusi yang diusulkan dalam mengatasi kendala pengisian manual, meningkatkan pengalaman pengguna, dan mempercepat proses pendaftaran. Kata kunci: Backend. Ekstraksi Informasi. Java. Natural Language Processing. Spring Boot PENDAHULUAN Dalam era digital yang terus berkembang, platform karier memainkan peran yang semakin penting dalam dunia rekrutmen modern. Teknologi telah memfasilitasi pertemuan antara pencari kerja yang berbakat dengan perusahaan yang mencari tenaga kerja berkualitas. Salah satu platform karier terkemuka adalah Klob, yang telah menjadi wadah untuk mencocokkan kesempatan kerja dengan kekuatan dan keunikan masing-masing talenta. Namun, seperti banyak platform sejenis lainnya. Klob masih menghadapi tantangan dalam meningkatkan efisiensi dan pengalaman pengguna. Salah satu masalah yang dihadapi oleh pengguna baru adalah proses pengisian data profil secara manual saat pertama kali menggunakan platform Klob. Hal ini dapat Diterima 26 Maret 2024. Direvisi 28 Oktober 2024. Diterima untuk publikasi 29 Oktober 2024 52 | Journal of Digital Business and Technology Innovation (DBESTI) Vol. 1 No. 2 November 2024 menjadi hambatan bagi mereka yang ingin melamar pekerjaan dengan cepat. Oleh karena itu, diperlukan langkah-langkah inovatif yang dapat mengatasi kendala ini dan meningkatkan efisiensi penggunaan platform. menguraikan terkait tahapan penelitian, pengumpulan data dan metode pengujian. Solusi yang diusulkan adalah menyediakan opsi unggah resume untuk mengisi data profil secara otomatis pada Solusi ini tidak hanya akan menghemat waktu, melainkan juga akan meningkatkan akurasi dan konsistensi data yang dimasukkan. Sehingga data-data profil mereka akan secara otomatis terisi pada platform. Namun, tantangan utama dalam implementasi solusi ini adalah struktur yang berbeda dari setiap resume, ketidakstrukturan konten, adanya data yang tidak valid, serta tantangan teknis seperti pengambilan foto profil dari sebuah resume. Dalam penelitian ini, penulis menjalani berbagai tahapan sesuai dengan tujuan penelitian. Proses tahapan penelitian ini melibatkan alur yang diuraikan secara rinci untuk setiap proses yang telah disusun, sehingga penelitian dapat dilaksanakan dengan jelas dan terstruktur. Untuk mengatasi masalah ini, penelitian ini diarahkan untuk merancang pengembangan solusi yang efisien dengan mengintegrasikan ekstraksi informasi dari resume pengguna berbasis bahasa pemrograman Java. Hasil dari perancangan ini akan menjadi panduan dalam mengembangkan backend untuk ekstraksi resume menggunakan bahasa pemrograman Java yang lebih sesuai dengan platform Klob. Dengan demikian, penelitian ini bertujuan untuk memberikan pengguna Klob dengan kemudahan dalam mengisi data profil mereka, meningkatkan pengalaman pengguna, dan mempermudah pencarian dan lamaran pekerjaan. Namun, penelitian ini memiliki batasan yang jelas. Fokus akan diberikan pada pengembangan backend untuk ekstraksi informasi dari resume pengguna. Batasan-batasan ini mencakup format resume, bahasa yang digunakan, dan ruang lingkup ekstraksi informasi yang dibutuhkan. Dengan demikian, batasan-batasan tersebut akan membantu mengarahkan jalannya penelitian dan menyediakan kerangka kerja yang jelas bagi pengembangan solusi. Penelitian ini memiliki batasan yang jelas, di mana fokus akan diberikan pada pengembangan backend untuk ekstraksi informasi dari resume pengguna. Batasan-batasan ini meliputi penekanan pada sistem yang dikembangkan untuk pengenalan dan ekstraksi informasi dari resume dalam format PDF, penggunaan model OpenNLP dalam bahasa Inggris khususnya untuk meresume teks, pemusatan pada data minimal yang diperlukan untuk melengkapi profil pengguna, serta penekanan pada ekstraksi data dari teks utama dalam resume sambil mengabaikan informasi yang tersembunyi dalam gambar atau data non-teks. Dengan demikian, batasan-batasan tersebut akan membantu mengarahkan jalannya penelitian dan menyediakan kerangka kerja yang jelas bagi pengembangan solusi. METODE PENELITIAN Dalam bagian ini, terdapat langkah-langkah yang akan dijalani dalam penelitian, termasuk di dalamnya adalah proses pengembangan sistem menggunakan metode Extreme Programming (XP). Metode penelitian akan 1 Tahapan Penelitian Gambar 1. Tahapan Penelitian Pada Gambar 1 tahapan penelitian ini menerapkan Extreme Programming (XP) pengembangan backend ekstraksi informasi resume. Extreme Programming (XP) adalah suatu proses rekayasa perangkat lunak yang umumnya mengadopsi pendekatan berorientasi objek. Metodologi ini didasarkan pada prinsipprinsip yang serupa, dengan fokus pada pengembangan sistem dalam waktu singkat yang dapat mengatasi perubahan yang cepat dari pengembang dengan berbagai perubahan yang mungkin terjadi. Metodologi ini cocok digunakan ketika tim dihadapkan pada kebutuhan yang tidak jelas atau perubahan kebutuhan yang cepat. Studi Pendahuluan Dalam studi pendahuluan ini, dilakukan studi literatur untuk memahami teknologi dan pendekatan terkini dalam ekstraksi informasi dari resume. Fokusnya adalah mengidentifikasi solusi teknologi baru terkait ekstraksi Selain itu, dilakukan studi lapangan dengan mengamati langsung website Klob untuk mendapatkan wawasan praktis dalam konteks penelitian. Analisa Perancangan Dalam merancang. Tahapan perancangan ini melibatkan merancang arsitektur sistem untuk pengembangan ekstraksi informasi dari resume pengguna. Untuk pengembangan backend menggunakan Java. Java sering diidentifikasi sebagai bahasa pemrograman yang mampu beroperasi di berbagai sistem operasi, selama JVM tersedia di sistem operasi tersebut. Pilihan dan justifikasi penggunaan kerangka kerja Spring Boot dalam pengembangan backend. 53 | Journal of Digital Business and Technology Innovation (DBESTI) Vol. 1 No. 2 November 2024 Dengan Spring Boot menjadi sangat sederhana karena didukung oleh perpustakaan yang komprehensif, dan Spring Boot tergolong ringan dalam penggunaannya. Serta perancangan hasil dalam bentuk JSON setelah pengguna mengunggah resume. Implementasi Dalam tahap ini, peneliti akan memulai dengan menulis kode dalam bahasa pemrograman Java untuk ekstraksi informasi dari resume. Indikator capaian yang menjadi fokus pada tahap ini mencakup konfigurasi proyek Spring Boot sesuai kebutuhan, implementasi layanan ekstraksi informasi dari resume, pengembangan algoritma yang mampu mengenali struktur dan konten resume, serta pembuatan API endpoint yang dapat menerima unggahan resume dari pengguna. Pengujian Pengujian dilakukan terhadap sistem yang telah dikembangkan menggunakan resume untuk memastikan akurasi ekstraksi informasi. Pengujian melibatkan verifikasi akurasi ekstraksi informasi dari resume tersebut. Aplikasi memulai serangkaian aktivitas untuk memverifikasi bahwa tujuan penelitian telah tercapai melalui pengujian Kesimpulan Langkah terakhir melibatkan penyusunan kesimpulan dari hasil penelitian dan pengembangan. Peneliti menjelaskan solusi yang telah diimplementasikan untuk mengatasi masalah pengisian data profil. Kesimpulan ini mencakup evaluasi keberhasilan dalam menangani masalah, pencapaian tujuan yang telah ditetapkan. 2 Metode Pengumpulan Data Pada penelitian ini, tahapan pengumpulan data dan informasi melalui sejumlah metode, seperti: Online Kuesioner Penyebaran online kuesioner dilakukan dengan maksud untuk mengevaluasi sejauh mana kinerja aplikasi yang dikembangkan dapat berjalan secara optimal dan memenuhi kebutuhan pengguna. Hasil yang diperoleh akan diolah menggunakan skala likert guna menilai sejauh mana pengembangan aplikasi telah berhasil atau masih memerlukan perbaikan. Observasi Observasi dilakukan dengan menganalisis langsung platform Klob pada website https://w. id/ yang melibatkan pengamatan langsung terhadap objek penelitian terkait permasalahan yang akan dibahas. Ini melibatkan identifikasi proses pada platform Klob sebagai acuan untuk menentukan data yang harus diekstrak dari resume, sehingga dapat digunakan dalam profil biodata di Klob. Studi Kepustakaan Dalam pengembangan layanan ekstraksi informasi resume di platform Klob, studi kepustakaan memegang peran Studi kepustakaan dilakukan dengan cermat untuk mengidentifikasi dan mengakses sumber-sumber pustaka yang mendukung penelitian ini. Sumber-sumber literatur yang relevan termasuk buku, jurnal, artikel, dan makalah dalam berbagai jenis. 3 Metode Pengujian Pada pengujian ini merupakan suatu mekanisme yang digunakan untuk mengidentifikasi data uji yang mampu menguji perangkat lunak yang dikembangkan. Pengujian dilakukan menggunakan User Acceptance Testing (UAT). Menggunakan User Acceptance Test (UAT) merupakan sebuah proses pengujian yang dijalankan oleh pengguna dengan melakukan verifikasi terhadap sistem, apakah sistem telah diterima dan memenuhi kebutuhan yang diminta. UAT akan melibatkan pengujian kemampuan aplikasi dalam mengidentifikasi dan mengekstrak data kunci, seperti informasi dasar, riwayat pendidikan, dan keterampilan. Sebelum di tahap UAT, peneliti menggunakan beberapa metode pengujian untuk mendapatkan hasil sesuai dengan Adapun metode pengujian yang melibatkan teknik Black Box testing dan kuesioner. Black Box Testing Dalam penelitian ini, pendekatan yang diterapkan untuk menguji REST API yang telah dirancang adalah melalui metode Black Box dan menggunakan aplikasi Postman. Dalam pengujian ini, penguji hanya mengevaluasi hasil yang dihasilkan oleh perangkat lunak berdasarkan input yang diberikan, tanpa perlu mengetahui detail tentang bagaimana atau apa yang terjadi di dalamnya. Uji coba dapat dengan memanfaatkan alat bantu Postman, yang memungkinkan pengujian fungsionalitas REST API melalui penggunaan permintaan HTTP. Pengujian black box untuk pengembangan REST API bertujuan untuk memastikan fungsionalitas yang benar, keandalan, keamanan, kemudahan penggunaan, serta kompatibilitas dan interoperabilitas dengan hasil yang diharapkan agar API dapat beroperasi sesuai spesifikasi, memberikan respons yang konsisten, menjaga keamanan, menawarkan antarmuka yang intuitif, dan dapat berintegrasi dengan berbagai sistem eksternal. Skala Likert Dalam evaluasi hasil ekstraksi informasi resume melalui kuesioner skala likert, responden akan diminta untuk menilai keakuratan, kelengkapan, dan keterbacaan informasi yang diekstrak dari resume. Dalam skala likert, terdapat dua jenis pernyataan, yakni pernyataan positif yang digunakan dalam mengevaluasi aspek positif, dan 54 | Journal of Digital Business and Technology Innovation (DBESTI) Vol. 1 No. 2 November 2024 pernyataan negatif yang digunakan dalam mengevaluasi aspek negatif. Tabel 1. Kriteria Interpretasi Skala Likert Interval Persentase Nilai Kualifikasi 0% - 20% Sangat Tidak Setuju 21% - 40% Tidak Setuju 41% - 60% Kurang Setuju 61% - 80% Setuju 81% - 100% Sangat Setuju Pada Tabel 1, dijelaskan interval skala likert yang akan digunakan, ini berkisar dari "Sangat Tidak Setuju" hingga "Sangat Setuju". Interval skala likert, dapat digunakan untuk mengukur tingkat kepuasan atau penilaian responden terhadap berbagai aspek kinerja sistem ekstraksi. HASIL DAN PEMBAHASAN Pada bagian ini akan dibahas mengenai analisis dan proses perancangan implementasi serta evaluasi kinerja dalam pengembangan backend ekstraksi informasi resume 1 Analisis Sistem Berjalan Pada kondisi sistem yang sedang berjalan saat ini proses pengisian profil pada platform Klob dilakukan secara manual oleh pengguna. Pada tahap ini, pengguna diminta untuk meng-input-kan berbagai informasi yang meliputi data dasar, ringkasan diri, riwayat pendidikan, dan keahlian secara langsung ke dalam formulir yang disediakan oleh Meskipun proses manual ini memberikan pengguna kontrol penuh terhadap informasi yang mereka berikan, tanpa opsi unggah resume, terdapat keterbatasan dalam akses informasi yang lebih rinci. Pengguna perlu meluangkan waktu dan usaha lebih banyak dalam pengisian manual, meningkatkan risiko kesalahan manusia dan dapat memengaruhi kualitas serta keakuratan profil. Keterbatasan ini juga dapat mempengaruhi efisiensi dan kenyamanan pengguna, terutama bagi mereka yang ingin melamar pekerjaan dengan cepat. Oleh karena itu, keberadaan opsi unggah resume dianggap dapat meningkatkan pengalaman pengguna dengan memberikan akses lebih baik terhadap informasi dan meminimalkan beban pengguna dalam mengisi profil secara manual. 2 Analisis Permasalahan dan Usulan Perbaikan Proses manual pengisian profil sering kali menghadapi beberapa permasalahan. Pengguna, terutama yang memiliki kebutuhan untuk melamar pekerjaan dengan cepat, mungkin mengalami keterlambatan dalam mengakses atau merespons peluang pekerjaan. Selain itu, ketidakakuratan data dan kelelahan pengguna saat mengisi formulir juga dapat merugikan pengalaman pengguna secara keseluruhan. Dalam rangka mengatasi kendala pengisian profil manual, sebuah solusi diusulkan untuk mengimplementasikan layanan ekstraksi informasi dari resume pengguna. Opsi ini memungkinkan pengguna untuk mengunggah resume mereka, dan sistem akan secara otomatis mengekstrak informasi yang diperlukan untuk melengkapi profil pengguna di platform Klob Analisis Permasalahan Proses manual pengisian profil pada platform Klob memberikan tantangan signifikan, terutama dalam hal efisiensi dan kecepatan akses informasi. Beberapa permasalahan yang diidentifikasi meliputi: Gambar 2. Alur Pengisian Profil Klob Pada Gambar 2 alur pengisian profil klob dimulai dengan pengguna yang mendaftar atau masuk ke akun mereka. Setelah itu, pengguna diarahkan ke halaman profil untuk mengisi formulir secara manual, termasuk informasi dasar, ringkasan diri, riwayat pendidikan, dan keahlian. Pengguna kemudian memverifikasi dan memvalidasi data yang diinput-kan sebelum menyimpannya ke dalam basis data Klob. Dengan profil yang lengkap, pengguna dapat melanjutkan untuk menelusuri peluang kerja dan melamar posisi yang diinginkan. Keterlambatan dalam Melamar Pekerjaan Pengguna, terutama yang memiliki urgensi dalam melamar pekerjaan, mengalami keterlambatan akibat proses manual yang memakan waktu Keakuratan Data Proses manual rentan terhadap kesalahan manusia, sehingga data yang dimasukkan oleh pengguna tidak selalu akurat atau konsisten Kesulitan Pengguna Baru Pengguna baru mungkin merasa kesulitan atau terintimidasi oleh proses manual ini, yang dapat mengurangi daya tarik platform Usulan Perbaikan Sebagai solusi untuk mengatasi permasalahan tersebut, diusulkan implementasi layanan ekstraksi informasi dari Memberikan opsi kepada pengguna untuk mengunggah resume mereka sebagai alternatif pengisian 55 | Journal of Digital Business and Technology Innovation (DBESTI) Vol. 1 No. 2 November 2024 profil manual. Mengimplementasikan algoritma ekstraksi informasi dari resume untuk secara otomatis mendapatkan data profil pengguna berdasarkan apa yang terdapat dalam Serta Menyertakan panduan pengguna yang jelas untuk memandu pengguna baru dalam menggunakan opsi ekstraksi informasi dari resume. Kebutuhan Non-Fungsional 2 Analisis Kebutuhan Sistem Langkah awal dalam mengembangkan backend untuk mengekstraksi informasi dari resume menggunakan Java Spring Boot adalah melakukan analisis kebutuhan sistem. Pada tahap ini, dilakukan identifikasi dan pengumpulan spesifikasi fungsional dan non-fungsional dari sistem yang akan dikembangkan. Kebutuhan Fungsional Menyediakan API yang bersih dan terdokumentasi dengan baik untuk memfasilitasi integrasi mudah dengan aplikasi pihak ketiga. API harus mendukung operasi seperti ekstraksi data, manajemen pengguna, dan pengelolaan hasil ekstraksi Sistem harus mampu melakukan ekstraksi informasi yang komprehensif dari berbagai jenis resume, termasuk informasi dasar, kalimat-kalimat penting, pendidikan, dan keterampilan. Proses ini melibatkan pemrosesan teks untuk mengidentifikasi entitas kunci dan hubungannya Integrasi dengan algoritma pengenalan bahasa natural (NLP) menggunakan OpenNLP untuk meningkatkan pemahaman konteks kalimat pada resume. Hal ini akan membantu meningkatkan akurasi dalam ekstraksi informasi dan adaptabilitas terhadap perubahan dalam bahasa atau format resume. Sistem harus responsif dengan waktu eksekusi yang cepat, terutama dalam menangani permintaan ekstraksi dari resume yang besar. Pengoptimalan kode dan penyesuaian kapasitas server perlu diperhatikan Keamanan data harus diutamakan dengan menerapkan enkripsi pada data yang disimpan dan melibatkan protokol otentikasi yang kuat. Proteksi terhadap serangan sisi server dan sisi pengguna perlu diimplementasikan secara cermat. Arsitektur sistem harus dirancang untuk mudah ditingkatkan kapasitasnya agar dapat menangani peningkatan volume data dan jumlah pengguna. Evaluasi perlu dilakukan terhadap pemilihan teknologi yang mendukung otomatisasi peningkatan kapasitas dan manajemen beban 2 Class Diagram Sistem Class diagram adalah representasi grafis dari susunan dan hubungan antar kelas dalam sistem. Untuk ekstraksi informasi resume, class diagram digunakan untuk menggambarkan bagaimana berbagai komponen atau kelas dalam sistem saling berinteraksi Gambar 3. Class Diagram Sistem Dalam gambar 3 class diagram disini terdapat kelas ResumeController yang bertanggung jawab untuk menerima permintaan dan berkomunikasi dengan kelas ResumeService yang berisi logika bisnis untuk mengekstrak informasi dari teks resume dibantu oleh kelas 56 | Journal of Digital Business and Technology Innovation (DBESTI) Vol. 1 No. 2 November 2024 ModulEkstraksi menggunakan layanan ekstraksi dan utilitas untuk mengekstrak informasi dari resume. Package Util terdapat beberapa tools fungsi untuk membantu mengekstrak informasi, dalam Kelas ModelNER dan ModelTokenizer memanfaatkan OpenNLP untuk melakukan tokenization dan pengenalan entitas. Kemudian. RuleBasedExtractor adalah kelas yang menggunakan aturan tertentu untuk mengekstrak informasi tambahan seperti nomor telepon dan alamat email. 3 Perancangan Sistem Perancangan diimplementasikan sebagai layanan RESTful API yang menyediakan endpoint untuk unggah resume, pengambilan hasil ekstraksi, dan operasi lainnya. Dokumentasi API dibuat untuk memfasilitasi integrasi dengan aplikasi klien Status memberikan berbagai layanan untuk memproses teks dalam bahasa alami, termasuk berbagai tugas pemrosesan tokenization, segments sentences, tags Part-Of-Speech (POS), recognizes and extracts named entity, provides coreference resolution, dan sebagainya. OpenNLP menyediakan algoritma dan alat untuk melaksanakan Named Entity Recognition (NER). Beberapa pendekatan dari NER adalah sequence tagging. Part of Speech (POS) tagging, dan chunking. List data model OpenNLP yang digunakan dalam tabel berikut: Nama Model Komponen Keterangan en-token. Tokenizer Memisahkan teks menjadi unit-token seperti kata atau en-sent. Sentence Detector Pemisahan teks menjadi kalimatkalimat terpisah. en-posmaxent. POS Tagger Menandai jenis en-ner-date. Name Finder Pengenalan entitas tanggal. en-ner-time. Name Finder Pengenalan entitas waktu. en-nerlocation. Name Finder Pengenalan entitas lokasi en-nerorganization. Name Finder Pengenalan entitas organisasi en-nerperson. Name Finder Pengenalan entitas nama Language Detector Mendeteksi Response 200 OK {"code": "OK", "message": "Data has been successfully get. ", "result": []} 400 - Request Body Error {"code":"REQUEST_BODY_ERROR ", "message": "The mandatory request body is missing"} 400 - API Validation Error {"code":"API_VALIDATION_ERRO R", "message": "There is an issue with the information you provided. 400 - Invalid Input {"code":"INVALID_INPUT", "message": " The request cannot be processed due to invalid input. " } 404 - Not Found {"code": "NOT_FOUND", "message": " The requested resource could not be found on the server. 500 - Internal Server Error {"code": "SERVER_ERROR", "message": " We're encountering a problem on our server. " } Perancangan response API di atas merinci perancangan antarmuka pengguna (API respons. dengan kode status dan respons body API dalam format content-type application/json untuk berbagai kebutuhan. Pada setiap endpoint, informasi khusus terstruktur dalam format JSON, mencakup status keberhasilan, pesan informatif, dan data terkait ekstraksi atau validasi. Penggunaan content-type application/json mempermudah integrasi dengan aplikasi dan sistem lainnya, meningkatkan efisiensi komunikasi antara klien dan server. 4 Implementasi Model OpenNLP Dalam proses implementasi sistem ekstraksi informasi resume, di awal pengembangan dibutuhkan data model. Data model diambil dari pustaka Apache OpenNLP yang Penggunaan data model tersebut digunakan untuk membantu dalam pengolahan bahasa alami dengan mendukung kegiatan seperti memecah teks menjadi token, menandai jenis kata, mengenali entitas bernama, dan melakukan analisis sintaksis. 5 Implementasi Antarmuka Selama proses implementasi antarmuka sistem, peneliti akan menampilkan sistem dalam bentuk layanan RESTful API untuk ekstraksi informasi dari resume, dengan fokus pada penjelasan respons yang diberikan saat pengguna mengunggah resume. API adalah sistem yang memfasilitasi 57 | Journal of Digital Business and Technology Innovation (DBESTI) Vol. 1 No. 2 November 2024 komunikasi antara satu aplikasi dengan yang lain, dengan model API yang didasarkan pada RESTful Web Service . Tampilan Response Deteksi Bahasa Gambar 4. Tampilan Response Deteksi Bahasa Gambar 7. Tampilan Hasil Ekstraksi Data Nama Pada response JSON di gambar 4, terdapat property AulangDetectAy ini mengembalikan kode AuengAy yang berarti resume yang diupload dalam bentuk bahasa Inggris. Jika ternyata response bukan AuengAy maka sistem akan mengembalikan pesan kesalahan yang menyatakan bahwa saat ini bahasa yang didukung adalah bahasa Inggris. Model OpenNLP yang dipakai untuk deteksi bahasa adalah Aulangdetect-183. binAy. Pada gambar 7, yaitu tampilan hasil ekstraksi data nama. API nama. xtractNam. dalam bentuk array of objects. Setiap objek memiliki dua properti yakni "name" yang menyimpan kategori informasi nama dan "totalOccurrences" yang menyimpan jumlah kemunculan kategori tersebut. Dengan demikian, array ini memberikan gambaran terstruktur tentang sejumlah kategori informasi dan frekuensi Model OpenNLP yang digunakan adalah Auen-ner-person. binAy. Tampilan Hasil Ekstraksi Kalimat Tampilan Hasil Ekstraksi Tanggal dan Waktu Gambar 5. Tampilan Hasil Ekstraksi Kalimat Pada gambar 5, ekstraksi deteksi kalimat ini berbentuk kumpulan kalimat. Dalam ekstraksi deteksi kalimat menggunakan model en-sent. bin dari pustakan OpenNLP. Data deteksi kalimat disimpan dalam property objek extractSentences. Tampilan Hasil Ekstraksi Data Gambar Gambar 8. Tampilan Hasil Ekstraksi Tanggal dan Waktu Sama seperti hasil ekstraksi sebelumnya, pada gambar 8 response extractDateTimes menampilkan data yang berkaitan dengan tanggal dan waktu. Untuk ekstraksi data ini menggunakan model bernama en-ner-date. bin dan enner-time. Tampilan Hasil Ekstraksi Email Gambar 6. Tampilan Hasil Ekstraksi Data Gambar Hasil ekstraksi data gambar 6 berbentuk list dalam Base64. Gambar Base64 merupakan representasi teks dari data biner gambar yang dienkripsi dengan menggunakan skema encoding Base64. Untuk mendapatkan gambar asli, pada proses integrasi diperlukan proses decoding kembali. Tampilan Hasil Ekstraksi Data Nama Gambar 9. Tampilan Hasil Ekstraksi Email 58 | Journal of Digital Business and Technology Innovation (DBESTI) Vol. 1 No. 2 November 2024 Pada gambar 9, dalam response extractEmails terdapat hasil dalam bentuk array of objects. Untuk object "name" yang menyimpan kategori informasi email. Dalam ekstraksi email menggunakan rule base extraction metode regular Regular Expressions adalah pola aturan yang digunakan untuk mencocokkan dan mengekstraksi teks yang cocok dengan pola yang telah ditentukan. Kemudian dataset keterampilan diolah menggunakan algoritma pemrosesan bahasa alami. Hasil kemudian ditampilkan dalam bentuk daftar keterampilan beserta jumlah kemunculannya. Tampilan Hasil Ekstraksi Lokasi Tampilan Hasil Ekstraksi Nomor Telepon Gambar 13. Tampilan Hasil Ekstraksi Lokasi Gambar 10. Tampilan Hasil Ekstraksi Nomor Telepon Dalam hasil response dari fungsi extractPhoneNumbers pada gambar 10, terdapat data yang disajikan dalam bentuk arrays of objects. Objek tersebut mencakup atribut "name" yang menyimpan kategori informasi nomor telepon, serta atribut "totalOccurrences" yang menunjukkan total Ekstraksi nomor telepon juga menggunakan rule base extraction method untuk mendapatkan data yang sesuai dengan format nomor telepon. Tampilan Hasil Ekstraksi Pendidikan Gambar 11. Tampilan Hasil Ekstraksi Pendidikan Gambar 11 menampilkan hasil response data ekstraksi pendidikan menggunakan data bernama Auen-nerorganization. binAy. Model ini untuk untuk mengidentifikasi Named Entity Recognition (NER) terhadap kategori entitas organisasi dalam teks berbahasa Inggris. Tampilan Hasil Ekstraksi Keterampilan Model OpenNLP yang digunakan untuk ekstraksi lokasi adalah model Auen-ner-location. binAy. Model ini berfokus pada entitas lokasi atau tempat dalam teks berbahasa Inggris. Ini dapat mendeteksi lokasi atau tempat yang disebutkan dalam teks, seperti nama kota, negara, jalan, atau tempat geografis lainnya seperti yang terlihat pada gambar 6 Hasil Pengujian Evaluasi sistem pengujian adalah langkah-langkah untuk menguji dan menilai sistem yang telah dirancang dengan maksud memastikan bahwa aplikasi beroperasi berdasarkan dengan persyaratan yang ditetapkan Blackbox Testing Pada penelitian ini, uji black box dilaksanakan dengan melakukan uji coba kinerja sistem dari spesifikasi yang dirancang dan membandingkannya berdasarkan hasil yang tercapai, fokus pada pengujian fungsionalitas fitur. Rincian skenario pengujian dan uji diperoleh dari perancangan pengujian black box yang telah disusun sebelumnya. Berikutnya, disajikan hasil uji coba menggunakan pendekatan black box. Uji black box untuk backend ekstraksi informasi resume melibatkan 21 butir pengujian yang dijalankan oleh ycEyceycycyceycuycycaycyce = skenario uji yang berhasil y 100% Total skenario uji y 100% ycEyceycycyceycuycycaycyce = 100% ycEyceycycyceycuycycaycyce = Gambar 12. Tampilan Hasil Ekstraksi Keterampilan Ekstraksi keterampilan diperlukan dataset yang terdapat pada basis referensi untuk mengidentifikasi dan menghitung keterampilan yang ada dalam teks input. Tampilan hasil ekstraksi keterampilan dapat dilihat pada gambar 12. Jadi, kesimpulan bisa diambil bahwa seluruh skenario pengujian berhasil diselesaikan oleh sistem. Dari hasil uji black box pada 21 skenario, disimpulkan bahwa seluruh skenario uji . %) berfungsi dengan baik seta sesuai standar yang diharapkan. User Acceptance Test (UAT) Pengujian UAT adalah serangkaian uji coba yang dijalankan oleh pengguna dengan maksud untuk menghasilkan 59 | Journal of Digital Business and Technology Innovation (DBESTI) Vol. 1 No. 2 November 2024 dokumen sebagai bukti penerimaan atau penolakan sistem yang telah dibuat. Jika hasil pengujian dianggap memenuhi kebutuhan pengguna, aplikasi dapat diterapkan. Berikut merupakan hasil perhitungan dari respons yang diberikan oleh para peserta dalam kuesioner telah disiapkan Jawaban Sangat Setuju = 57 y 5 = 285 Jawaban Setuju = 26 y 4 = 104 Jawaban Kurang Setuju = 7 y 3 = 21 Jawaban Tidak Setuju = 0 y 2 = 0 Jawaban Sangat Tidak Setuju = 0 y 1 = 0 relevan, yang akan meningkatkan akurasi ekstraksi. Selanjutnya, penelitian tentang pemanfaatan machine learning dalam sistem ekstraksi informasi dari resume juga DAFTAR PUSTAKA