Ιδρυματικό Αποθετήριο
Πολυτεχνείο Κρήτης
EN  |  EL

Αναζήτηση

Πλοήγηση

Ο Χώρος μου

Ομοσπονδιακή προσαρμογή χαμηλής τάξης για Μεγάλα Γλωσσικά Μοντέλα

Kelaidis Kanakis

Απλή Εγγραφή


URIhttp://purl.tuc.gr/dl/dias/0AFEB004-A210-4201-9666-C1ABED8AAFAF-
Αναγνωριστικόhttps://doi.org/10.26233/heallink.tuc.105019-
Γλώσσαen-
Μέγεθος72 pagesen
ΤίτλοςFederated LoRA-Tuning for LLMs en
ΤίτλοςΟμοσπονδιακή προσαρμογή χαμηλής τάξης για Μεγάλα Γλωσσικά Μοντέλαel
ΔημιουργόςKelaidis Kanakisen
ΔημιουργόςΚελαϊδης Κανακηςel
Συντελεστής [Επιβλέπων Καθηγητής]Garofalakis Minosen
Συντελεστής [Επιβλέπων Καθηγητής]Γαροφαλακης Μινωςel
Συντελεστής [Μέλος Εξεταστικής Επιτροπής]Spyropoulos Thrasyvoulosen
Συντελεστής [Μέλος Εξεταστικής Επιτροπής]Σπυροπουλος Θρασυβουλοςel
Συντελεστής [Μέλος Εξεταστικής Επιτροπής]Samoladas Vasilisen
Συντελεστής [Μέλος Εξεταστικής Επιτροπής]Σαμολαδας Βασιληςel
ΕκδότηςΠολυτεχνείο Κρήτηςel
ΕκδότηςTechnical University of Creteen
Ακαδημαϊκή ΜονάδαΠολυτεχνείο Κρήτης:Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστώνel
ΠεριγραφήΔιπλωματική εργασία που υποβλήθηκε στη σχολή ΗΜΜΥ του Πολ. Κρήτης για την πλήρωση πορϋποθέσεων λήψης του προπτυχιακού Διπλώματος. el
Περίληψη Large language models (LLMs) have become essential across a wide spectrum of applications, from conversational agents to code generation, making fine-tuning on domain-specific data a ubiquitous need. Yet their deployment in real-world domains is often constrained by data isolation, computational cost and memory requirements. Centralizing proprietary data is frequently infeasible and forcing each organization to train on its own limited dataset typically yields inferior models. Federated Learning offers a natural solution by enabling multiple clients to collaborate without sharing raw data, but naively applying it to massive architectures remains computationally demanding and communication-intensive. In this thesis, we present a framework for federated fine-tuning of LLMs via Low-Rank Adaptation (LoRA), focusing on efficiency and performance. Building on the recently proposed DP-LoRA framework, we reformulate the original algorithm and aim to evaluate the performance ceiling of federated LoRA-tuning in its non-private form. By introducing small low-rank trainable matrices into transformer attention layers, LoRA reduces the number of tunable parameters by orders of magnitude, making per-client training both feasible and communication-efficient in federated environments. We also implement components for data formatting, inference and parsing for improved data preparation and evaluation, and justify our choice of Gemma3-4B as the backbone model from a plethora of available options. Our experiments compare against the non-private baselines reported in the DP-LoRA study and show that our approach outperforms them, establishing a new benchmark for this setting. These findings highlight the utility of parameter-efficient federated adaptation of LLMs in scenarios where maximizing accuracy and efficiency is the primary goal and suggest promising directions for future research in improving and extending these methods.en
ΠερίληψηΤα μεγάλα γλωσσικά μοντέλα (LLMs) έχουν γίνει απαραίτητα σε ένα μεγάλο πλήθος διαφορετικών εφαρμογών που εκτείνονται από συστήματα συνομιλίας έως και την αυτόματη παραγωγή κώδικα, καθιστώντας την προσαρμογή τους σε εξειδικευμένoυς τομείς αναγκαία. Ωστόσο, η ανάπτυξή τους συχνά περιορίζεται από την έλλειψη συγκεντρωμένων δεδομένων, το υψηλό υπολογιστικό κόστος και τις μεγάλες απαιτήσεις σε μνήμη. Η κεντρικοποίηση ιδιοκτησιακών δεδομένων είναι συχνά ανέφικτη, ενώ αν κάθε εταιρεία εκπαιδεύει αποκλειστικά στα περιορισμένα δεδομένα που διαθέτει, θα καταλήγει συνήθως σε υποδεέστερα μοντέλα. Η μέθοδος Federated Learning προσφέρει μια λύση καθώς επιτρέπει σε πολλαπλούς φορείς να συνεργάζονται χωρίς να κοινοποιούν τα δεδομένα τους, ωστόσο η άμεση εφαρμογή της σε τεράστιες αρχιτεκτονικές παραμένει υπολογιστικά δαπανηρή και απαιτητική ως προς την επικοινωνία. Σε αυτή τη διπλωματική παρουσιάζουμε μια μέθοδο για Federated tuning των LLMs μέσω Low-Rank Adaptation (LoRA), με έμφαση στην αποδοτικότητα και την ακρίβεια. Βασιζόμενοι στην πρόσφατη μελέτη DP-LoRA, επαναδιατυπώνουμε τον αλγόριθμο και μελετούμε το ανώτατο όριο απόδοσης της federated LoRA-tuning στη μη ιδιωτική εκδοχή της. Με την εισαγωγή μικρών πινάκων χαμηλής τάξης στα transformer attention layers, η LoRA μειώνει τον αριθμό των παραμέτρων που πρέπει να προσαρμοστούν κατά τάξεις μεγέθους, καθιστώντας την εκπαίδευση στο επίπεδο του χρήστη εφικτή και πιο οικονομική ως προς την επικοινωνία. Επίσης, υλοποιούμε μονάδες για τη διαμόρφωση των δεδομένων, την εξαγωγή αποτελεσμάτων και την ανάλυση τους, βελτιώνοντας τη διαδικασία προετοιμασίας και αξιολόγησης του μοντέλου, ενώ αιτιολογούμε την επιλογή του Gemma3-4B ως βασικό μοντέλο ανάμεσα σε μια πληθώρα εναλλακτικών επιλογών. Τα πειράματά μας συγκρίνονται με τα μη ιδιωτικά αποτελέσματα που αναφέρονται στη μελέτη DP-LoRA και δείχνουν ότι η προσέγγισή μας τα υπερβαίνει, θέτοντας ένα νέο σημείο αναφοράς για το συγκεκριμένο περιβάλλον. Τα ευρήματα αυτά αναδεικνύουν τη χρησιμότητα της παραμετρο-αποδοτικής federated προσαρμογής μεγάλων γλωσσικών μοντέλων σε σενάρια όπου η μεγιστοποίηση της ακρίβειας και της αποδοτικότητας αποτελεί τον κύριο στόχο, και υποδεικνύουν υποσχόμενες κατευθύνσεις για μελλοντική έρευνα με στόχο την περαιτέρω βελτίωση και ανάπτυξη αυτών των μεθόδων. el
ΤύποςΔιπλωματική Εργασίαel
ΤύποςDiploma Worken
Άδεια Χρήσηςhttp://creativecommons.org/licenses/by/4.0/en
Ημερομηνία2025-10-10-
Ημερομηνία Δημοσίευσης2025-
Θεματική ΚατηγορίαΜεγάλα Γλωσσικά Μοντέλαel
Θεματική ΚατηγορίαLarge Language Modelsen
Θεματική ΚατηγορίαLLMsen
Θεματική ΚατηγορίαΠροσαρμογή Χαμηλής Τάξηςel
Θεματική ΚατηγορίαLoRAen
Θεματική ΚατηγορίαLow-Rank Adaptationen
Θεματική ΚατηγορίαAdaptations for LLMsen
Θεματική ΚατηγορίαFine-Tuningen
Θεματική ΚατηγορίαΟμοσπονδιακή Μάθησηel
Θεματική ΚατηγορίαFederated Learningen
Θεματική ΚατηγορίαΝευρωνικά Δίκτυαel
Θεματική ΚατηγορίαNeural Networksen
Βιβλιογραφική ΑναφοράKanakis Kelaidis, "Federated LoRA-Tuning for LLMs", Diploma Work, School of Electrical and Computer Engineering, Technical University of Crete, Chania, Greece, 2025 en
Βιβλιογραφική ΑναφοράΚελαϊδής Κανάκης, "Ομοσπονδιακή προσαρμογή χαμηλής τάξης για Μεγάλα Γλωσσικά Μοντέλα", Διπλωματική Εργασία, Πολυτεχνείο Κρήτης:Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών, Χανιά, Ελλάς, 2025el

Διαθέσιμα αρχεία

Υπηρεσίες

Στατιστικά