Partner: Tomasz P Michalak


Ostatnie publikacje
1.Puczyńska J., Podhajski M., Wojtasik K., Michalak T., Duże modele językowe i możliwości ich wykorzystania w terroryzmie dżihadystycznym i przestępczości, Terroryzm – studia, analizy, prewencja, ISSN: 2720-4383, DOI: 10.4467/27204383TER.24.004.19392, Vol.5, pp.133-164, 2024

Streszczenie:

W artykule autorzy omawiają duże modele językowe (ang. Large Language Models, LLMs) w kontekście zagrożeń bezpieczeństwa wynikających z funkcji i dostępności tych modeli. Mimo że pod względem zastosowań LLMs wydają się podobne do wyszukiwarek internetowych, to generują nowe zagrożenia związane z dostarczaniem przez nie przestępcy i terroryście podstawowych umiejętności analitycznych i programistycznych. Autorzy dowodzą, że dostępne modele językowe nie tylko zmniejszają bariery finansowe dla rożnych działań przestępczych, lecz także obniżają poziom wiedzy specjalistycznej i zaangażowania wymagany od jednostek lub małych grup do popełniania przestępstw, w tym aktów terrorystycznych. Z drugiej strony możliwości tych modeli mogą wykorzystać również organy ścigania, aby być przygotowanymi na pojawiające się zagrożenia.

Słowa kluczowe:

Large Language Models, bezpieczeństwo, cyberprzestępczość, terroryzm dżihadystyczny, sztuczna inteligencja

Afiliacje autorów:

Puczyńska J.-IPPT PAN
Podhajski M.-IPPT PAN
Wojtasik K.-other affiliation
Michalak T.-other affiliation

Prace konferencyjne
1.Podhajski M., Dubiński J., Franziska B., Dziedzic A., Pręgowska A., Michalak T., Efficient Model-Stealing Attacks Against Inductive Graph Neural Networks, ECAI, European Conference on Artificial Intelligence, 2024-10-19/10-24, Santiago de Compostela (ES), DOI: 10.3233/FAIA240646, pp.1438-1445, 2024

Streszczenie:

Graph Neural Networks (GNNs) are recognized as potent tools for processing real-world data organized in graph structures. Especially inductive GNNs, which allow for the processing of graph-structured data without relying on predefined graph structures, are becoming increasingly important in a wide range of applications. As such these networks become attractive targets for model-stealing attacks where an adversary seeks to replicate the functionality of the targeted network. Significant efforts have been devoted
to developing model-stealing attacks that extract models trained on images and texts. However, little attention has been given to stealing GNNs trained on graph data. This paper identifies a new method of performing unsupervised model-stealing attacks against inductive GNNs, utilizing graph contrastive learning and spectral graph augmentations to efficiently extract information from the targeted model. The new type of attack is thoroughly evaluated on six datasets and the results show that our approach outperforms the current state-of-the-art by Shen et al. (2021). In particular, our attack surpasses the baseline across all benchmarks, attaining superior fidelity and downstream accuracy of the stolen model while necessitating fewer queries directed toward the target model.

Afiliacje autorów:

Podhajski M.-IPPT PAN
Dubiński J.-other affiliation
Franziska B.-other affiliation
Dziedzic A.-other affiliation
Pręgowska A.-IPPT PAN
Michalak T.-other affiliation