URI | http://purl.tuc.gr/dl/dias/0AFEB004-A210-4201-9666-C1ABED8AAFAF | - |
Αναγνωριστικό | https://doi.org/10.26233/heallink.tuc.105019 | - |
Γλώσσα | en | - |
Μέγεθος | 72 pages | en |
Τίτλος | Federated LoRA-Tuning for LLMs
| en |
Τίτλος | Ομοσπονδιακή προσαρμογή χαμηλής τάξης για Μεγάλα Γλωσσικά Μοντέλα | el |
Δημιουργός | Kelaidis Kanakis | en |
Δημιουργός | Κελαϊδης Κανακης | el |
Συντελεστής [Επιβλέπων Καθηγητής] | Garofalakis Minos | en |
Συντελεστής [Επιβλέπων Καθηγητής] | Γαροφαλακης Μινως | el |
Συντελεστής [Μέλος Εξεταστικής Επιτροπής] | Spyropoulos Thrasyvoulos | en |
Συντελεστής [Μέλος Εξεταστικής Επιτροπής] | Σπυροπουλος Θρασυβουλος | el |
Συντελεστής [Μέλος Εξεταστικής Επιτροπής] | Samoladas Vasilis | en |
Συντελεστής [Μέλος Εξεταστικής Επιτροπής] | Σαμολαδας Βασιλης | el |
Εκδότης | Πολυτεχνείο Κρήτης | el |
Εκδότης | Technical University of Crete | en |
Ακαδημαϊκή Μονάδα | Πολυτεχνείο Κρήτης:Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών | el |
Περιγραφή | Διπλωματική εργασία που υποβλήθηκε στη σχολή ΗΜΜΥ του Πολ. Κρήτης για την πλήρωση πορϋποθέσεων λήψης του προπτυχιακού Διπλώματος. | el |
Περίληψη | Large language models (LLMs) have become essential across a wide spectrum of applications, from conversational agents to code generation, making fine-tuning on domain-specific data a ubiquitous need. Yet their deployment in real-world domains is often constrained by data isolation, computational cost and memory requirements. Centralizing proprietary data is frequently infeasible and forcing each organization to train on its own limited dataset typically yields inferior models. Federated Learning offers a natural solution by enabling multiple clients to collaborate without sharing raw data, but naively applying it to massive
architectures remains computationally demanding and communication-intensive.
In this thesis, we present a framework for federated fine-tuning of LLMs via Low-Rank Adaptation (LoRA), focusing on efficiency and performance. Building on the recently proposed DP-LoRA framework, we reformulate the original algorithm and aim to evaluate the performance ceiling of federated LoRA-tuning in its non-private form. By introducing small low-rank trainable matrices into transformer attention layers, LoRA reduces the number of tunable parameters by orders of magnitude, making per-client training both feasible and communication-efficient in federated environments. We also implement components for data formatting, inference and parsing for improved data preparation and evaluation, and justify our choice of Gemma3-4B as the backbone model from a plethora of available options. Our experiments compare against the non-private baselines reported in the DP-LoRA study and show that our approach outperforms them, establishing a new benchmark for this setting. These findings highlight the utility of parameter-efficient federated adaptation of LLMs in scenarios where maximizing accuracy and efficiency is the primary goal and suggest promising directions for future research in improving and extending these methods. | en |
Περίληψη | Τα μεγάλα γλωσσικά μοντέλα (LLMs) έχουν γίνει απαραίτητα σε ένα μεγάλο πλήθος διαφορετικών εφαρμογών που εκτείνονται από συστήματα συνομιλίας έως και την αυτόματη παραγωγή κώδικα, καθιστώντας την προσαρμογή τους σε εξειδικευμένoυς τομείς αναγκαία. Ωστόσο, η ανάπτυξή τους συχνά περιορίζεται από την έλλειψη συγκεντρωμένων δεδομένων, το υψηλό υπολογιστικό κόστος και τις μεγάλες απαιτήσεις σε μνήμη. Η κεντρικοποίηση ιδιοκτησιακών δεδομένων είναι συχνά ανέφικτη, ενώ αν κάθε εταιρεία εκπαιδεύει αποκλειστικά στα περιορισμένα δεδομένα που διαθέτει, θα καταλήγει συνήθως σε υποδεέστερα μοντέλα. Η μέθοδος Federated Learning προσφέρει μια λύση καθώς επιτρέπει σε πολλαπλούς φορείς να συνεργάζονται χωρίς να κοινοποιούν τα δεδομένα τους, ωστόσο η άμεση εφαρμογή της σε τεράστιες αρχιτεκτονικές παραμένει υπολογιστικά δαπανηρή και απαιτητική ως προς την επικοινωνία.
Σε αυτή τη διπλωματική παρουσιάζουμε μια μέθοδο για Federated tuning των LLMs μέσω Low-Rank Adaptation (LoRA), με έμφαση στην αποδοτικότητα και την ακρίβεια. Βασιζόμενοι στην πρόσφατη μελέτη DP-LoRA, επαναδιατυπώνουμε τον αλγόριθμο και μελετούμε το ανώτατο όριο απόδοσης της federated LoRA-tuning στη μη ιδιωτική εκδοχή της. Με την εισαγωγή μικρών πινάκων χαμηλής τάξης στα transformer attention layers, η LoRA μειώνει τον αριθμό των παραμέτρων που πρέπει να προσαρμοστούν κατά τάξεις μεγέθους, καθιστώντας την εκπαίδευση στο επίπεδο του χρήστη εφικτή και πιο οικονομική ως προς την επικοινωνία.
Επίσης, υλοποιούμε μονάδες για τη διαμόρφωση των δεδομένων, την εξαγωγή αποτελεσμάτων και την ανάλυση τους, βελτιώνοντας τη διαδικασία προετοιμασίας και αξιολόγησης του μοντέλου, ενώ αιτιολογούμε την επιλογή του Gemma3-4B ως βασικό μοντέλο ανάμεσα σε μια πληθώρα εναλλακτικών επιλογών. Τα πειράματά μας συγκρίνονται με τα μη ιδιωτικά αποτελέσματα που αναφέρονται στη μελέτη DP-LoRA και δείχνουν ότι η προσέγγισή μας τα υπερβαίνει, θέτοντας ένα νέο σημείο αναφοράς για το συγκεκριμένο περιβάλλον. Τα ευρήματα αυτά αναδεικνύουν τη χρησιμότητα της παραμετρο-αποδοτικής federated προσαρμογής μεγάλων γλωσσικών μοντέλων σε σενάρια όπου η μεγιστοποίηση της ακρίβειας και της αποδοτικότητας αποτελεί τον κύριο στόχο, και υποδεικνύουν υποσχόμενες κατευθύνσεις για μελλοντική έρευνα με στόχο την περαιτέρω βελτίωση και ανάπτυξη αυτών των μεθόδων. | el |
Τύπος | Διπλωματική Εργασία | el |
Τύπος | Diploma Work | en |
Άδεια Χρήσης | http://creativecommons.org/licenses/by/4.0/ | en |
Ημερομηνία | 2025-10-10 | - |
Ημερομηνία Δημοσίευσης | 2025 | - |
Θεματική Κατηγορία | Μεγάλα Γλωσσικά Μοντέλα | el |
Θεματική Κατηγορία | Large Language Models | en |
Θεματική Κατηγορία | LLMs | en |
Θεματική Κατηγορία | Προσαρμογή Χαμηλής Τάξης | el |
Θεματική Κατηγορία | LoRA | en |
Θεματική Κατηγορία | Low-Rank Adaptation | en |
Θεματική Κατηγορία | Adaptations for LLMs | en |
Θεματική Κατηγορία | Fine-Tuning | en |
Θεματική Κατηγορία | Ομοσπονδιακή Μάθηση | el |
Θεματική Κατηγορία | Federated Learning | en |
Θεματική Κατηγορία | Νευρωνικά Δίκτυα | el |
Θεματική Κατηγορία | Neural Networks | en |
Βιβλιογραφική Αναφορά | Kanakis Kelaidis, "Federated LoRA-Tuning for LLMs", Diploma Work, School of Electrical and Computer Engineering, Technical University of Crete, Chania, Greece, 2025
| en |
Βιβλιογραφική Αναφορά | Κελαϊδής Κανάκης, "Ομοσπονδιακή προσαρμογή χαμηλής τάξης για Μεγάλα Γλωσσικά Μοντέλα", Διπλωματική Εργασία, Πολυτεχνείο Κρήτης:Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών, Χανιά, Ελλάς, 2025 | el |