Saluti ai Partecipanti e agli Sponsor
Fine prevista per le 10:45
Una grossa multinazionale compromessa a partire da un semplice attacco di Smishing; un impiegato che, a sua insaputa, stava per inviare centinaia di migliaia di dollari verso un conto bancario di un gruppo criminale; una serie di attacchi mirati a compromettere e rubare fondi da enti governativi… a partire da queste storie, estratte dalla nostra base di dati globale, evidenzierò gli elementi salienti del paesaggio delle minacce odierno. Vedremo, ad esempio, come l’uso di kit di phishing capaci di bypassare MFA sia ormai diventato una norma, come gli attori più avanzati utilizzino attacchi multi-canale per cercare di sfuggire alle difese impiegate dalle aziende, e come oggi la maggior parte degli attacchi via mail facciano uso (o abuso) di una serie di servizi legittimi largamente diffusi e utilizzati da aziende e privati.
Fine prevista per le 11:30
Inizio gioco
Fine prevista per le 16:15
The Domain Generation Algorithm (DGA) is a well-established malware technique that enables dynamic communication between client-side malware and a server-side operator by generating a sequence of domain names. The attacker predicts and registers one of these domains to establish a communication channel, enhancing malware resilience when traditional C2 domains are discovered and blocked. However, classic DGAs are noisy, generating numerous failed connection attempts to unregistered domains, which makes them easier for defense systems to detect. This talk introduces a novel approach, the Stealth Domain Generation Algorithm (SDGA), which departs from traditional domain name generation. Instead, SDGA leverages the user names of third-party services as the foundation for C2 communication. By predicting user names that can be registered and controlled on these platforms, SDGA reduces network noise and improves stealth by blending with legitimate traffic from widely trusted platforms, significantly enhancing both the stealth and resilience of the malware’s C2 infrastructure.
Fine prevista per le 12:15
L’obiettivo di questo talk è quello di aumentare la consapevolezza sui problemi relativi alla software supply chain nelle applicazioni mobile, con particolare riferimento al mondo Android. Le applicazioni mobile sono tipicamente basate su un gran numero di librerie, che sono integralmente parte dell’applicazione, e che, come tutto il software, a volte presentano vulnerabilità note. Per capire se un’applicazione è vulnerabile è quindi necessario individuare quali librerie sono usate e determinare la versione specifica delle librerie incluse. Queste operazioni sono necessarie per determinare il profilo di rischio dei nostri sistemi ma si rivelano ben più complesse di quanto si potrebbe immaginare. Abbiamo sviluppato una metodologia, ancora in fase di sviluppo iniziale, ma già utile per avere un quadro della situazione, per automatizzare l’attività di analisi delle applicazioni individuando eventuali vulnerabilità presenti a causa dell’uso di librerie obsolete. I risultati, ottenuti su un insieme limitato ma significativo di applicazioni analizzate, ci hanno permesso di giungere alla conclusione che molte applicazioni che usiamo quotidianamente sono basate su librerie non aggiornate e spesso vulnerabili.
Fine prevista per le 13:00
Ci rivediamo tra pochissimo...
Fine prevista per le 14:15
Un momento di svago prima di ricominciare con i talk del pomeriggio!
Fine prevista per le 14:30
Questa presentazione ripercorre il mio personale viaggio nell'innovazione delle offensive cyber operations, utilizzando infrastrutture cloud con Terraform e il paradigma Infrastructure as Code (IaC). Le architetture introdotte, sfruttando il linguaggio HCL (HashiCorp Configuration Language), si integrano con strumenti avanzati di comando e controllo, strumenti di networking e anonimizzazione, riuscendo a garantire scalabilità e sicurezza. L'automazione della configurazione e la gestione delle risorse cloud possono consentire una migliore efficacia delle operazioni offensive complesse.
Fine prevista per le 15:15
i recenti progressi nell'ambito dell'ai generativa hanno reso i large language models (LLM) uno strumento ormai imprescindibile per molti. date le enormi potenzialità di questi modelli è emersa la necessità di allineare il loro comportamento con i valori di noi esseri umani, per evitare che gli llm agiscano in maniera non etica o pericolosa. Vedremo insieme come è perchè funzionano queste "barriere di sicurezza", e quali sono le tecniche più sofisticate per aggirarle. Daremo infine uno sguardo ad una metodologia per testare in maniera sistematica la resistenza a questo tipo di attacchi da parte dei modelli allo stato dell'arte (OpenAI, Anthropic, etc.)
Fine prevista per le 16:00
Facciamo due chiacchere con i relatori di questa edizione!
Fine prevista per le 16:30
Presentazione Report & Premiazione Squadre
Fine prevista per le 17:00
Saluti ai Partecipanti e agli Sponsor
Fine prevista per le 17:15