Skip to content
0
  • Home
  • Piero Bosio
  • Blog
  • World
  • Fediverso
  • News
  • Categories
  • Old Web Site
  • Recent
  • Popular
  • Tags
  • Users
  • Home
  • Piero Bosio
  • Blog
  • World
  • Fediverso
  • News
  • Categories
  • Old Web Site
  • Recent
  • Popular
  • Tags
  • Users
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Piero Bosio Social Web Site Personale Logo Fediverso

Social Forum federato con il resto del mondo. Non contano le istanze, contano le persone
cybersecurity@poliverso.orgundefined

Cybersecurity & cyberwarfare

@cybersecurity@poliverso.org
About
Posts
1.5k
Topics
1.5k
Shares
1.1k
Groups
0
Followers
1
Following
0

View Original

Posts

Recent Best Controversial

  • Hackaday Links: December 7, 2025
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    Hackaday Links: December 7, 2025

    We stumbled upon a story this week that really raised our eyebrows and made us wonder if we were missing something. The gist of the story is that U.S. Secretary of Energy Chris Wright, who has degrees in both electrical and mechanical engineering, has floated the idea of using the nation’s fleet of emergency backup generators to reduce the need to build the dozens of new power plants needed to fuel the AI data center building binge. The full story looks to be a Bloomberg exclusive and thus behind a paywall — hey, you don’t get to be a centibillionaire by giving stuff away, you know — so we might be missing some vital details, but this sounds pretty stupid to us.

    First of all, saying that 35 gigawatts of generation capacity sits behind the big diesel and natural gas-powered generators tucked behind every Home Depot and Walmart in the land might be technically true, but it seems to ignore the fact that backup generators aren’t engineered to run continuously. In our experience, even the best backup generators are only good for a week or two of continuous operation before something — usually the brushes — gives up the ghost. That’s perfectly acceptable for something that is designed to be operated only a few times a year, and maybe for three or four days tops before grid power is restored. Asking these units to run continuously to provide the base load needed to run a data center is a recipe for rapid failure. And even if these generators could be operated continuously, there’s still the issue of commandeering private property for common use, as well as the fact that you’d be depriving vital facilities like hospitals and fire stations of their backup power. But at least we’d have chatbots.

    Well, that won’t buff right out. Roscosmos, the Russian space agency, suffered a serious setback last week when it damaged the launchpad at Site 31/6 during a Soyuz launch. This is bad news because that facility is currently the only one in the world capable of launching Soyuz and Progress, both crucial launch vehicles for the continued operation of the International Space Station. As usual, the best coverage of the accident comes from Scott Manley, who has all the gory details. His sources inform him that the “service cabin,” a 20-ton platform that slides into position under the rocket once it has been erected, is currently situated inside the flame trench rather than being safely tucked into a niche in the wall. He conjectures that the service cabin somehow got sucked into the flame trench during launch, presumably by the negative pressure zone created by the passage of all that high-velocity rocket exhaust. Whatever the cause of the accident, it causes some problems for the Russians and the broader international space community. An uncrewed Progress launch to resupply the ISS was scheduled for December 20, and a crewed Soyuz mission is scheduled for July 2026. But without that service cabin, neither mission seems likely. Hopefully, the Russians will be able to get things tidied up quickly, but it might not matter anyway since there’s currently a bit of a traffic jam at the ISS.

    We saw a really nice write-up over at Make: Magazine by Dom Dominici about his impressions from his first Supercon visit. Spoiler alert: he really liked it! He describes it as “an intimate, hands-on gathering that feels more like a hacker summer camp than a tech expo,” and that’s about the best summary of the experience that we’ve seen yet. His reaction to trying to find what he assumed would be a large convention center, but only finding a little hole-in-the-wall behind a pizza place off the main drag in Pasadena, is priceless; yes, that mystery elevator actually goes somewhere. For those of you who still haven’t made the pilgrimage to Pasadena, the article is a great look at what you’re missing.

    And finally, we know we were a little rough on the Russians a couple of weeks back for their drunk-walking robot demo hell, but it really served to demonstrate just how hard it is to mimic human walking with a mechanical system. After all, it takes the better part of two years for a new human to even get the basics, and a hell of a lot longer than that to get past the random face-plant stage. But still, some humanoid robots are better than others, to the point that there’s now a Guinness Book of World Records category for longest walk by a humanoid robot. The current record was set last August, with a robot from Shanghai-based Agibot Innovations going on a 106-km walkabout without falling or (apparently) recharging. The journey took place in temperatures approaching 40°C and took 24 hours to complete, which means the robot kept up a pretty brisk walking pace over the course, which we suppose didn’t have any of the usual obstacles.


    hackaday.com/2025/12/07/hackad…

    Uncategorized

  • Il mercato dello spyware: come Intellexa sopravvive alle sanzioni e continua a colpire
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    Il mercato dello spyware: come Intellexa sopravvive alle sanzioni e continua a colpire


    @informatica
    Apple e Google inviano ondate di notifiche di minaccia a centinaia di utenti in oltre 150 paesi, e il panorama della sorveglianza digitale mostra una verità scomoda: l’architettura dello spyware commerciale non si disintegra sotto i colpi

    Uncategorized

  • USB Video Capture Devices: Wow!
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    USB Video Capture Devices: Wow! They’re All Bad!!

    [VWestlife] purchased all kinds of USB video capture devices — many of them from the early 2000s — and put them through their paces in trying to digitize VHS classics like Instant Fireplace and Buying an Auxiliary Sailboat. The results were actually quite varied, but almost universally bad. They all worked, but they also brought unpleasant artifacts and side effects when it came to the final results. Sure, the analog source isn’t always the highest quality, but could it really be this hard to digitize a VHS tape?

    The best results for digitizing VHS came from an old Sony device that was remarkably easy to use on a more modern machine.
    It turns out there’s an exception to all the disappointment: the Sony Digital Video Media Converter (DVMC) is a piece of vintage hardware released in 1998 that completely outperformed the other devices [VWestlife] tested. There is a catch, but it’s a small one. More on that in a moment.

    Unlike many other capture methods, the DVMC has a built-in time base corrector that stabilizes analog video signals by buffering them and correcting any timing errors that would cause problems like jitter or drift. This is a feature one wouldn’t normally find on budget capture devices, but [VWestlife] says the Sony DVMC can be found floating around on eBay for as low as 20 USD. It even has composite and S-Video inputs.

    For an old device, [VWestlife] says using the DVMC was remarkably smooth. It needed no special drivers, defaults to analog input mode, and can be powered over USB. That last one may sound trivial, but it means there’s no worry about lacking some proprietary wall adapter with an oddball output voltage.

    The catch? It isn’t really a USB device, and requires a FireWire (IEEE-1394) port in order to work. But if that’s not a deal-breaker, it does a fantastic job.

    So if you’re looking to digitize older analog media, [VWestlife] says it might be worth heading to eBay and digging up a used Sony DVMC. But if one wants to get really serious about archiving analog media, capturing RF signals direct from the tape head is where it’s at.

    Thanks to [Keith Olson] for the tip!

    youtube.com/embed/OTOChbbTRgs?…


    hackaday.com/2025/12/07/usb-vi…

    Uncategorized

  • Neat Techniques To Make Interactive Light Sculptures
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    Neat Techniques To Make Interactive Light Sculptures

    [Voria Labs] has created a whole bunch of artworks referred to as Lumanoi Interactive Light Sculptures. A new video explains the hardware behind these beautiful glowing pieces, as well as the magic that makes their interactivity work.

    The basic architecture of the Lumanoi pieces starts with a custom main control board, based around the ESP-32-S3-WROOM-2. It’s got two I2C buses onboard, as well as an extension port with some GPIO breakouts. The controller also has lots of protection features and can shut down the whole sculpture if needed. The main control board works in turn with a series of daisy-chained “cell” boards attached via a 20-pin ribbon cable. The cable carries 24-volt power, a bunch of grounds, and LED and UART data that can be passed from cell to cell. The cells are responsible for spitting out data to addressable LEDs that light the sculpture, and also have their own microcontrollers and photodiodes, allowing them to do all kinds of neat tricks.

    As for interactivity, simple sensors provide ways for the viewer to interact with the glowing artwork. Ambient light sensors connected via I2C can pick up the brightness of the room as well as respond to passing shadows, while touch controls give a more direct interface to those interacting with the art.

    [Voria Labs] has provided a great primer on building hardcore LED sculptures in a smart, robust manner. We love a good art piece here, from the mechanical to the purely illuminatory. Video after the break.

    youtube.com/embed/pELnzIHmLkI?…


    hackaday.com/2025/12/07/neat-t…

    Uncategorized

  • Apple in crisi: lascia anche il responsabile dei chip Johny Srouji
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    Apple in crisi: lascia anche il responsabile dei chip Johny Srouji

    Apple sta attraversando un periodo di grandi cambiamenti ai vertici, con l’uscita di figure chiave che hanno contribuito in modo determinante allo sviluppo tecnologico dell’azienda. L’ultimo dirigente a dare l’addio è Johny Srouji, Senior Vice President delle Tecnologie Hardware, noto per aver guidato lo sviluppo dei chip interni Apple, dalla serie A per dispositivi mobili fino ai recenti processori M per computer desktop.

    Secondo fonti riportate da Bloomberg, Srouji avrebbe comunicato a Tim Cook la volontà di lasciare l’azienda, ipotizzando un futuro incarico in un’altra società. La sua uscita segue quella di altri dirigenti di rilievo: a dicembre hanno lasciato Apple anche John Giannandrea, responsabile dell’intelligenza artificiale, e Alan Dye, capo del design dell’interfaccia utente, quest’ultimo passato immediatamente a Meta.

    Srouji è entrato in Apple nel 2008, guidando inizialmente lo sviluppo del chip A4, primo sistema su chip realizzato internamente. Negli anni, ha coordinato l’evoluzione della progettazione dei processori, fino a diventare vicepresidente senior delle Tecnologie Hardware. Recentemente, ha anche avviato il progetto di modem interno per sostituire componenti Qualcomm.

    Bloomberg segnala che Tim Cook sta cercando di trattenere Srouji, proponendogli una maggiore remunerazione e il possibile ruolo di Chief Technology Officer (CTO), che lo porrebbe al secondo posto nella gerarchia Apple. Tuttavia, alcune fonti interne ritengono che Srouji potrebbe non accettare di lavorare sotto un CEO diverso da Cook.

    Rimpasto dirigenziale e nuovi equilibri


    Gli addii recenti hanno innescato il più significativo rinnovamento dirigenziale di Apple degli ultimi decenni. Diversi ex dirigenti hanno trovato collocazione in Meta: oltre a Alan Dye, anche Ke Yang, responsabile delle funzionalità di intelligenza artificiale di Siri, si è trasferito nel colosso di Zuckerberg.

    In parallelo, Apple ha annunciato alcune nuove nomine: Jennifer Newstead, ex responsabile legale di Meta, sostituirà Kate Adams come consulente legale generale, ruolo che Adams ricoprirà fino alla pensione prevista per fine 2026. Anche Lisa Jackson, vicepresidente per l’ambiente, le politiche e le iniziative sociali, ha confermato il ritiro.

    Secondo Bloomberg, il potere decisionale in Apple si sta concentrando su quattro dirigenti chiave: John Ternus, potenziale successore di Cook, Eddy Cue (servizi), Craig Federighi (software) e Sabih Khan, nuovo COO.

    Tim Cook e le voci sul suo stato di salute


    Parallelamente alle dimissioni, il CEO Tim Cook, 65 anni, è stato oggetto di speculazioni circa possibili problemi di salute, alimentate dall’osservazione di lievi tremori durante alcune riunioni interne.

    Fonti vicine al CEO hanno però smentito ogni indiscrezione. Al momento, non è previsto un suo ritiro a breve termine, ma la successione resta un tema centrale nei dibattiti interni all’azienda.

    L'articolo Apple in crisi: lascia anche il responsabile dei chip Johny Srouji proviene da Red Hot Cyber.

    Uncategorized

  • E se domani agli USA girasse male e ci spegnessero il cloud?
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    E se domani agli USA girasse male e ci spegnessero il cloud? L’Europa? Paralizzata in 2 secondi

    Negli ultimi mesi due episodi apparentemente scollegati tra loro hanno messo in luce una verità scomoda: l’Europa non controlla più la propria infrastruttura digitale. E questa dipendenza, in uno scenario geopolitico sempre più teso, non è soltanto un rischio economico, ma una vulnerabilità sistemica.

    Il primo campanello d’allarme è arrivato quando Microsoft ha improvvisamente disabilitato l’accesso ad Azure all’unità di unità di intelligence israeliana. Si trattava dell’Unità 8200, precedentemente accusata di aver spiato i palestinesi nei territori controllati da Israele utilizzando la tecnologia Microsoft. Nessun preavviso, nessuna gradualità: un interruttore che si spegne e mostra quanto il potere decisionale su infrastrutture critiche sia nelle mani di poche corporation globali.

    Il secondo episodio è di oggi, ancora più emblematico, riguarda la recente disputa fra X (la piattaforma di Elon Musk) e la Commissione europea. Dopo una multa da 120 milioni di euro per violazioni delle norme europee, X ha cancellato l’account pubblicitario della Commissione, accusandola di aver utilizzato in modo improprio gli strumenti della piattaforma. Bruxelles si è difesa ricordando di aver sospeso da mesi ogni forma di pubblicità su X e di aver utilizzato soltanto gli strumenti messi a disposizione.

    Al di là delle dinamiche tra multinazionali e istituzioni, il messaggio è chiaro: la capacità dell’UE di comunicare sui social media, informare i cittadini e attuare politiche digitali è subordinata alla volontà commerciale di aziende non europee delle quali non ha nessun controllo.

    La fine dell’illusione: la tecnologia non è neutra


    Questi episodi mostrano un punto chiave: chi controlla la tecnologia controlla anche i comportamenti, la comunicazione e persino la politica delle nazioni. L’Europa lo ha scoperto tardi, per anni convinta che la globalizzazione digitale fosse sinonimo di neutralità.

    Ma parlare di tecnologia proprietaria significa affrontare una realtà molto diversa:

    • servono anni di ricerca e sviluppo;
    • serve visione politica di lungo periodo, indipendente dai cicli elettorali;
    • serve percepire la tecnologia non come un settore industriale, ma come un pilastro strutturale della sicurezza nazionale.

    E soprattutto significa accettare che nessun Paese è realmente sovrano se dipende da altri per servizi cloud, sistemi operativi, chip e infrastrutture digitali critiche.

    Una dipendenza che ci espone a shock globali


    Nel mondo iperconnesso di oggi, ogni incidente tecnologico ha effetti immediati e globali. Lo abbiamo visto recentemente con i blackout di AWS, Azure e Cloudflare (primo incidente e secondo incidente) hanno paralizzato servizi pubblici, aziende, banche, giornali, mobilità e sanità in mezzo mondo. Non si tratta più di “problemi tecnici”, ma di veri e propri rischi sistemici.

    L’Europa, priva di un proprio stack tecnologico completo, vive in una condizione di dipendenza totale. Siamo un continente altamente digitalizzato che poggia… su fondamenta costruite altrove.

    Serve un cloud europeo. E un sistema operativo europeo. E hardware europeo


    Affermare la sovranità tecnologica non significa rifiutare il cloud, anzi: significa costruire il nostro.

    Un cloud europeo, basato su hardware europeo, sistemi operativi europei, hypervisor europei e software europeo. Una filiera completa, dall’hardware all’applicazione.

    Quanto tempo occorre? 20 anni!

    Un percorso lungo, complesso, costoso. Ma oggi necessario più che lo sviluppo delle armi. Perché le armi del futuro, le armi “economiche”, sono queste e possono essere usate con un solo click.

    • Serve un sistema operativo europeo, base di tutta la catena.
    • Serve un hypervisor europeo, per garantire che la virtualizzazione non dipenda da logiche esterne.
    • Serve un cloud europeo che risponda alle leggi europee, non a quelle di altri Paesi.
    • Serve una filiera hardware, dal microchip ai server.

    E serve soprattutto una scelta politica: programmare questo percorso per 20-30 anni, non per una legislatura.

    Perché nell’attuale scacchiere geopolitico, chi controlla la tecnologia controlla le economie, le difese e le democrazie.

    E oggi l’Europa non controlla nulla di tutto questo.

    L'articolo E se domani agli USA girasse male e ci spegnessero il cloud? L’Europa? Paralizzata in 2 secondi proviene da Red Hot Cyber.

    Uncategorized

  • Anatomy Of A Minimalist Home Computer
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    Anatomy Of A Minimalist Home Computer

    There are plenty of well-known models among the 8-bit machines of the 1980s, and most readers could rattle them off without a thought. They were merely the stars among a plethora of others, and even for a seasoned follower of the retrocomputing world, there are fresh models from foreign markets that continue to surprise and delight. [Dave Collins] is treating us to an in-depth look at the VTech VZ-200, a budget machine that did particularly well in Asian markets. On the way, we learn a lot about a very cleverly designed machine.

    The meat of the design centres not around the Z80 microprocessor or the 6847 video chip, but the three 74LS chips handling both address decoding and timing for video RAM access. That they managed this with only three devices is the exceptionally clever part. While there are some compromises similar to other minimalist machines in what memory ranges can be addressed, they are not sufficient to derail the experience.

    Perhaps the most ingenuity comes in using not just the logic functions of the chips, but their timings. The designers of this circuit really knew the devices and used them to their full potential. Here in 2025, this is something novice designers using FPGAs have to learn; back then, it was learned the hard way on the breadboard.

    All in all, it’s a fascinating read from a digital logic perspective as much as a retrocomputing one. If you want more, it seems this isn’t the only hacker-friendly VTech machine.

    John Dalton, CC BY-SA 3.0.


    hackaday.com/2025/12/07/anatom…

    Uncategorized

  • The Key to Plotting
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    The Key to Plotting

    Plotters aren’t as common as they once were. Today, many printers can get high enough resolution with dots that drawing things with a pen isn’t as necessary as it once was. But certainly you’ve at least seen or heard of machines that would draw graphics using a pen. Most of them were conceptually like a 3D printer with a pen instead of a hotend and no real Z-axis. But as [biosrhythm] reminds us, some plotters were suspiciously like typewriters fitted with pens.

    Instead of type bars, type balls, or daisy wheels, machines like the Panasonic Penwriter used a pen to draw your text on the page, as you can see in the video below. Some models had direct computer control via a serial port, if you wanted to plot using software. At least one model included a white pen so you could cover up any mistakes.

    If you didn’t have a computer, the machine had its own way to input data for graphs. How did that work? Read for yourself.

    Panasonic wasn’t the only game in town, either. Silver Reed — a familiar name in old printers — had a similar model that could connect via a parallel port. Other familiar names are Smith Corona, Brother, Sharp, and Sears.

    Since all the machines take the same pens, they probably have very similar insides. According to the post, Alps was the actual manufacturer of the internal plotting mechanism, at least.

    The video doesn’t show it, but the machines would draw little letters just as well as graphics. Maybe better since you could change font sizes and shapes without switching a ball. They could even “type” vertically or at an angle, at least with external software.

    Since plotters are, at heart, close to 3D printers, it is pretty easy to build one these days. If plotting from keystrokes is too mundane for you, try voice control.

    youtube.com/embed/7IGrUeB100I?…


    hackaday.com/2025/12/07/the-ke…

    Uncategorized

  • The ZX Spectrum Finally Got An FPS
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    The ZX Spectrum Finally Got An FPS

    The ZX Spectrum is known for a lot of things, but it’s not really known for a rich and deep library of FPS titles. However, there is finally such a game for the platform, thanks to [Jakub Trznadel]—and it’s called World of Spells.

    Like so many other games of this type, it was inspired by the 3D raycasting techniques made so popular by Wolfenstein 3D back in the day. For that reason, it has a very similar look in some regards, but a very different look in others—the latter mostly due to the characteristic palette available on the ZX Spectrum. A playable FPS is quite a feat to achieve on such limited hardware, but [Jakub] pulled it off well, with the engine able to reach up to 80 frames per second.

    The game is available for download, and you can even order it on tape if you so desire. You might also like to check out the walkthrough on YouTube, where the game is played on an emulator. Don’t worry, though—the game works on real ZX Spectrum 48k hardware just fine.

    The Speccy retains a diehard fanbase to this day. You can even build a brand new one thanks to a buoyant supply of aftermarket parts.

    youtube.com/embed/52ukFKy3Awk?…

    [thanks to losr for the tip!]


    hackaday.com/2025/12/07/the-zx…

    Uncategorized

  • L’interruzione di Cloudflare del 5 dicembre 2025 dovuta alle patch su React Server.
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    L’interruzione di Cloudflare del 5 dicembre 2025 dovuta alle patch su React Server. L’analisi tecnica

    Cloudflare ha registrato un’interruzione significativa nella mattina del 5 dicembre 2025, quando alle 08:47 UTC una parte della propria infrastruttura ha iniziato a generare errori interni. L’incidente, che ha avuto una durata complessiva di circa 25 minuti, si è concluso alle 09:12 con il ripristino completo dei servizi.

    Secondo l’azienda, circa il 28% del traffico HTTP gestito globalmente è stato coinvolto. L’impatto ha riguardato solo clienti che utilizzavano una combinazione specifica di configurazioni, come spiegato dai tecnici.

    Cloudflare ha chiarito che il disservizio non è stato collegato ad alcuna attività ostile: nessun attacco informatico, tentativo di intrusione o comportamento malevolo ha contribuito all’evento. A causare il problema è stato invece un aggiornamento introdotto per mitigare una vulnerabilità recentemente resa pubblica e legata ai componenti React Server, identificata come CVE-2025-55182.

    Come si è arrivati all’incidente


    Il disservizio è nato da una modifica al sistema di analisi dei body delle richieste HTTP, parte delle misure adottate per proteggere gli utenti di applicazioni basate su React. La modifica prevedeva l’aumento del buffer di memoria interno del Web Application Firewall (WAF) da 128 KB a 1 MB, valore che si allinea al limite predefinito nei framework Next.js.

    Questa prima variazione è stata diffusa con un rollout progressivo. Durante l’implementazione, i tecnici hanno rilevato che uno strumento di test WAF interno non era compatibile con il nuovo limite. Ritenendo quel componente non necessario per il traffico reale, Cloudflare ha proceduto con una seconda modifica destinata a disabilitarlo.

    È stata questa seconda modifica, distribuita con il sistema di configurazione globale – che non prevede rollout graduali – a generare la catena di eventi che ha portato agli errori HTTP 500. Il sistema ha raggiunto rapidamente ogni server della rete in pochi secondi.

    A quel punto, una particolare versione del proxy FL1 si è trovata a eseguire una porzione di codice Lua contenente un bug latente. Il risultato è stato il blocco dell’elaborazione di alcune richieste e la restituzione di errori 500 da parte dei server coinvolti.

    Chi è stato colpito


    A essere interessati, riportano gli ingegneri di Cloudflare, sono stati i clienti che utilizzavano il proxy FL1 insieme al Cloudflare Managed Ruleset. Le richieste verso i siti configurati in questo modo hanno iniziato a rispondere con errori 500, con pochissime eccezioni (come alcuni endpoint di test, ad esempio /cdn-cgi/trace).

    Non sono stati invece colpiti i clienti che utilizzavano configurazioni differenti o quelli serviti dalla rete Cloudflare operante in Cina.

    La causa tecnica


    Il problema è stato ricondotto al funzionamento del sistema di regole utilizzato dal WAF. Alcune regole, tramite l’azione “execute”, attivano la valutazione di set di regole aggiuntivi. Il sistema killswitch, utilizzato per disattivare rapidamente regole problematiche, non era mai stato applicato fino a quel momento a una regola con azione “execute“.

    Quando la modifica ha disabilitato il set di test, il sistema ha saltato correttamente l’esecuzione della regola, ma non ha gestito l’assenza dell’oggetto “execute” nella fase successiva di elaborazione dei risultati. Da qui l’errore Lua che ha generato gli HTTP 500.

    Cloudflare ha precisato che questo bug non esiste nel proxy FL2, scritto in Rust, grazie al diverso sistema di gestione dei tipi che evita questi scenari.

    Collegamento con l’incidente del 18 novembre


    La società ha ricordato come una dinamica simile si fosse verificata il 18 novembre 2025, quando un’altra modifica non correlata causò un malfunzionamento diffuso. In seguito a quell’episodio erano stati annunciati diversi progetti per rendere più sicuri gli aggiornamenti di configurazione e ridurre l’impatto di singoli errori.

    Tra le iniziative ancora in corso figurano:

    • un sistema più rigido di versioning e rollback,
    • procedure “break glass” per mantenere operative funzioni critiche anche in condizioni eccezionali,
    • una gestione fail-open nei casi di errore di configurazione.

    Cloudflare ha ammesso che, se queste misure fossero già state pienamente operative, l’impatto dell’incidente del 5 dicembre sarebbe potuto essere più contenuto. Per il momento, l’azienda ha sospeso ogni modifica alla rete finché i nuovi sistemi di mitigazione non saranno completi.

    Cronologia essenziale dell’evento (UTC)


    • 08:47 – Inizio dell’incidente dopo la propagazione della modifica di configurazione
    • 08:48 – Impatto esteso a tutta la parte di rete coinvolta
    • 08:50 – Il sistema di alerting interno segnala il problema
    • 09:11 – Revoca della modifica di configurazione
    • 09:12 – Ripristino completo del traffico

    Cloudflare ha ribadito le proprie scuse ai clienti e ha confermato la pubblicazione, entro la settimana successiva, di un’analisi completa sui progetti in corso per migliorare la resilienza dell’intera infrastruttura.

    L'articolo L’interruzione di Cloudflare del 5 dicembre 2025 dovuta alle patch su React Server. L’analisi tecnica proviene da Red Hot Cyber.

    Uncategorized

  • Satya Nadella: “Le dimensioni di Microsoft sono diventate un ostacolo nell’era dell’AI”
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    Satya Nadella: “Le dimensioni di Microsoft sono diventate un ostacolo nell’era dell’AI”

    In un colloquio con Matthias Döpfner, amministratore delegato di Axel Springer, il CEO di Microsoft Satya Nadella ha riconosciuto che la crescita imponente del gruppo di Redmond rappresenta oggi un fattore limitante nella competizione sull’intelligenza artificiale. La struttura organizzativa molto ampia, ha spiegato, rallenta la catena decisionale e rende più complesso reagire ai rapidi cambiamenti del settore.

    Nadella ha messo a confronto l’operatività delle grandi aziende con quella delle startup, sottolineando come queste ultime si muovano con team ridotti, capaci di passare dall’idea allo sviluppo senza lunghi passaggi gerarchici. Secondo il CEO, questa agilità consente alle piccole realtà tecnologiche di innovare con una velocità difficilmente replicabile da colossi come Microsoft.

    Per questo motivo, ha raccontato, dedica parte dei suoi weekend allo studio dei modelli organizzativi delle giovani aziende, con l’obiettivo di capire come adattare il lavoro interno di Microsoft a un ritmo di innovazione più serrato. Ha spiegato che nel suo gruppo lo sviluppo dei prodotti passa attraverso almeno tre responsabili – per area scientifica, di prodotto e infrastrutturale – un processo che richiede inevitabilmente più tempo rispetto a quello delle startup.

    Nuove priorità per adottare l’IA


    Durante l’intervista, Nadella ha invitato le aziende a rivedere la propria impostazione mentale, passando da un approccio “autocompiaciuto” a uno orientato all’apprendimento continuo. Ha avvertito che trattare l’implementazione dell’IA come un semplice aggiornamento dei sistemi informativi esistenti porta quasi sempre al fallimento.

    Secondo il CEO, l’introduzione dell’intelligenza artificiale richiede quattro passaggi fondamentali:

    1. ripensare i flussi di lavoro, senza limitarsi a integrare nuove tecnologie;
    2. adottare strumenti moderni di IA;
    3. formare adeguatamente il personale;
    4. liberare i dati dai sistemi legacy, così che possano essere utilizzati dai modelli intelligenti.

    Nadella ha inoltre ricordato che competenze come empatia e intelligenza emotiva restano cruciali per la leadership anche in un contesto sempre più automatizzato.

    Una trasformazione che coinvolge tutta la Silicon Valley


    Le sue dichiarazioni arrivano in una fase in cui diverse grandi aziende tecnologiche – tra cui Google, Meta e Amazon – stanno riducendo i livelli intermedi di management per velocizzare le decisioni, un cambiamento che riflette una tendenza più ampia all’insegna della snellimento strutturale.

    Nadella ha richiamato poi l’attenzione su un altro punto critico per il settore: i limiti dei data center. A suo avviso, non è la disponibilità di chip a rappresentare il vero collo di bottiglia, bensì l’insufficienza di potenza e spazio nei centri di elaborazione. Ha raccontato che molti acceleratori di IA risultano inutilizzati perché l’infrastruttura non è ancora pronta a supportarli in modo efficiente.

    La “fabbrica di intelligenza artificiale” di Microsoft


    Guardando al futuro, Nadella ha invitato le aziende a costruire una propria “fabbrica di IA”, basata sulla capacità di valorizzare i dati interni.

    Per Microsoft, questo significa fare leva sul Microsoft 365 Graph, un sistema capace di rappresentare in forma semantica informazioni non strutturate come e-mail, documenti e riunioni. Secondo il CEO, questo approccio permetterà di recuperare la conoscenza tacita all’interno delle organizzazioni e potrebbe diventare un elemento strategico decisivo per l’adozione dell’intelligenza artificiale.

    L'articolo Satya Nadella: “Le dimensioni di Microsoft sono diventate un ostacolo nell’era dell’AI” proviene da Red Hot Cyber.

    Uncategorized

  • Ex CEO di Intel: “Il boom dell’IA finirà con l’arrivo dei qubit”
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    Ex CEO di Intel: “Il boom dell’IA finirà con l’arrivo dei qubit”

    L’ex amministratore delegato di Intel, Pat Gelsinger, ha condiviso una serie di valutazioni sul futuro dell’informatica e, in particolare, sull’evoluzione dell’intelligenza artificiale. In un’intervista al Financial Times, Gelsinger ha sostenuto che l’attuale espansione dell’IA potrebbe subire una brusca frenata in seguito a un avanzamento decisivo nel calcolo quantistico, capace di ridisegnare l’intero settore tecnologico.

    Gelsinger descrive il rapporto tra informatica convenzionale, sistemi basati su IA e tecnologie quantistiche come una sorta di “trinità”, destinata a ridefinire profondamente l’ecosistema digitale. A suo giudizio, i computer quantistici diventeranno strumenti d’uso comune molto più rapidamente di quanto oggi si creda.

    Una posizione che contrasta nettamente con quella del CEO di Nvidia, Jensen Huang, secondo il quale serviranno almeno due decenni prima che il calcolo quantistico sia ampiamente adottato. Gelsinger, invece, ipotizza un’accelerazione drastica e indica due anni come orizzonte possibile per assistere a una vera diffusione della tecnologia.

    Pur non ritenendo imminente un ridimensionamento del settore dell’IA, Gelsinger sostiene che una svolta quantistica rappresenterebbe il vero momento di discontinuità. Secondo la sua analisi le attuali GPU, fondamentali per l’addestramento dei modelli di IA, potrebbero lasciare spazio a sistemi completamente nuovi basati su architetture quantistiche.

    Nel corso dell’intervista, l’ex CEO ha anche commentato la collaborazione tra Microsoft e OpenAI, paragonandola a quella storica tra Bill Gates e IBM. Nel suo punto di vista, Microsoft detiene la componente strategica del progetto, in particolare l’infrastruttura di calcolo e il controllo sui modelli, mentre OpenAI agisce principalmente come veicolo di diffusione dei prodotti verso il pubblico.

    Dopo l’uscita da Intel, Gelsinger ha fatto ingresso in Playground Global, società di venture capital che gli ha permesso di approfondire ulteriormente le tecnologie quantistiche. La sua convinzione è che l’arrivo sul mercato dei primi qubit realmente operativi rappresenterà un momento critico, destinato a mettere sotto pressione sia l’informatica tradizionale sia le attuali soluzioni basate sull’IA.

    Gelsinger ha inoltre ripercorso alcune fasi della sua esperienza alla guida di Intel, ammettendo che al suo ritorno trovò un’azienda in condizioni peggiori del previsto. Ha sottolineato come, nei cinque anni precedenti, la società avesse accumulato ritardi significativi su numerosi progetti, arrivando a perdere alcuni dei fondamenti ingegneristici che da sempre la caratterizzavano.

    Uno dei punti critici riguarda lo sviluppo del processo produttivo 18A, considerato essenziale per recuperare terreno rispetto a TSMC. Gelsinger aveva promesso alla dirigenza che il progetto sarebbe stato completato in un arco di cinque anni, ma lasciò la società prima della conclusione dei lavori. Successivamente, il nuovo CEO Chen Liwu ha deciso di interrompere l’iniziativa proprio allo scadere del periodo previsto.

    L'articolo Ex CEO di Intel: “Il boom dell’IA finirà con l’arrivo dei qubit” proviene da Red Hot Cyber.

    Uncategorized

  • GlobalProtect di Palo Alto Networks è sotto scansioni Attive.
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    GlobalProtect di Palo Alto Networks è sotto scansioni Attive. Abilitate la MFA!

    Una campagna sempre più aggressiva, che punta direttamente alle infrastrutture di accesso remoto, ha spinto gli autori delle minacce a tentare di sfruttare attivamente le vulnerabilità dei portali VPN GlobalProtect di Palo Alto Networks.

    Il 5 dicembre Palo Alto Networks ha emesso un avviso urgente, esortando i clienti ad adottare l’autenticazione a più fattori (MFA), a limitare l’esposizione del portale tramite firewall e ad applicare le patch più recenti.

    In base alle risultanze del report sulle attività di monitoraggio condotto da GrayNoise, che ha rilevato scansioni e sforzi di sfruttamento condotti da oltre 7.000 indirizzi IP unici a livello globale, le organizzazioni che utilizzano la popolare soluzione VPN per garantire la sicurezza del lavoro remoto sono state messe in allarme.

    Targeting osservato da Ip (Fonte: GreyNoise)

    A partire dalla fine di novembre 2025, sono stati rilevati attacchi che sfruttano le vulnerabilità dei gateway GlobalProtect, soprattutto quelle accessibili pubblicamente attraverso la porta UDP 4501.

    GlobalProtect di Palo Alto Networks è da tempo un obiettivo primario a causa della sua onnipresenza negli ambienti aziendali. Difetti storici, come CVE-2024-3400 (una vulnerabilità critica di command injection, risolta nell’aprile 2024 con punteggio CVSS 9,8), continuano a perseguitare i sistemi non ancora patchati.

    Le ondate recenti sfruttano configurazioni errate che consentono l’accesso pre-autenticazione, incluse credenziali predefinite o portali di amministrazione esposti. Gli aggressori utilizzano strumenti come script personalizzati che imitano i moduli Metasploit per enumerare i portali, effettuare accessi con forza bruta e rilasciare malware per la persistenza.

    Secondo i dati di Shadowserver e di altri feed di intelligence sulle minacce, le fonti IP comprendono proxy residenziali, provider di hosting Bulletproof e istanze VPS compromesse in Asia, Europa e Nord America.

    Gli indicatori di compromissione includono picchi anomali di traffico UDP sulla porta 4501, seguiti da richieste HTTP agli endpoint /global-protect/login.urd. Nelle violazioni confermate, gli intrusi hanno esfiltrato token di sessione, consentendo il movimento laterale nelle reti aziendali.

    L'articolo GlobalProtect di Palo Alto Networks è sotto scansioni Attive. Abilitate la MFA! proviene da Red Hot Cyber.

    Uncategorized

  • Foto rubate e Rapimenti inventati!
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    Foto rubate e Rapimenti inventati! La nuova truffa che sta terrorizzando l’America

    I criminali utilizzano sempre più spesso fotografie e video tratti da fonti pubbliche per spacciarli per prove di un presunto rapimento. L’FBI avverte che i criminali alterano le immagini che trovano per renderle il più reali possibile, raffigurando una persona specifica trattenuta contro la sua volontà e poi inviandole ai parenti insieme a minacce.

    Spesso si tratta di storie completamente inventate, mentre la vittima dorme sonni tranquilli a casa, ignara dell’accaduto. Ma gli investigatori stanno anche notando una tendenza più inquietante: i truffatori monitorano i manifesti di persone scomparse, selezionano le foto delle persone scomparse e le usano per fare pressione sulle famiglie.

    In sostanza, questi schemi replicano vecchie truffe telefoniche in cui gli anziani venivano avvicinati con la storia di un parente scomparso recentemente. I truffatori chiedevano poi denaro “per le cure” o “per la liberazione”, sperando di scioccare e sgomentare il destinatario. L’anno scorso, l’FBI ha ricevuto 357 denunce per incidenti di questo tipo, con perdite totali pari a 2,7 milioni di dollari. La nuova versione di questo schema funziona in modo simile, ma è integrata da “prove” generate che, a prima vista, sembrano convincenti. La persona viene solitamente raffigurata come spaventata, esausta o messa in condizioni non familiari: questo è sufficiente a creare un senso di reale minaccia nel destinatario.

    La sostituzione è resa possibile dal fatto che praticamente tutti hanno numerose foto pubbliche online. Le piattaforme social consentono agli aggressori di identificare rapidamente la cerchia di amici e familiari di una potenziale vittima. Gli strumenti basati sull’intelligenza artificiale possono alterare espressioni facciali, sfondi o dettagli delle immagini e talvolta persino creare immagini completamente sintetiche. Tuttavia, come sottolineano gli esperti, a un esame più attento, tali materiali contengono spesso errori: tratti caratteristici scompaiono, proporzioni cambiano o compaiono distorsioni.

    Per impedire alle persone di verificare con calma l’autenticità di un’immagine, i criminali spesso utilizzano messaggi autodistruggenti. L’immagine scompare dopo pochi secondi, lasciando poco tempo per confrontarla con foto reali o per consultarsi con qualcuno di propria conoscenza. Questa corsa contro il tempo è una parte importante del piano.

    Nel frattempo, gli analisti della sicurezza informatica ammettono che a volte anche loro si imbattono in falsi così convincenti da essere quasi scambiati per veri. Nel frattempo, risorse underground vendono strumenti come WormGPT, che aiutano gli aggressori a scrivere testi di phishing, creare script di manipolazione e automatizzare gli attacchi.

    Per proteggere te stesso e i tuoi cari, l’FBI consiglia di evitare di condividere informazioni personali durante i viaggi e di concordare una parola in codice nota solo ai familiari. Se ricevi minacce, prova a contattare la persona menzionata nei messaggi: spesso questo rivela immediatamente che si tratta di una truffa.

    Metodi di inganno simili hanno da tempo colpito il mondo aziendale. Le aziende si imbattono sempre più spesso in falsi candidati in cerca di lavoro da remoto nel settore IT. Il Dipartimento di Giustizia degli Stati Uniti ha riferito che una di queste reti ha fruttato ai suoi partecipanti almeno 88 milioni di dollari in sei anni.

    Nella maggior parte di questi casi, la pista porta alla Corea del Nord: persone che usano false identità trovano lavoro presso le aziende, lavorano come sviluppatori e trasferiscono i proventi. Ora, sono aiutati non solo da documenti falsi, ma anche da strumenti generativi che creano curriculum, copioni per colloqui e alterano l’aspetto nelle videochiamate. Di conseguenza, il datore di lavoro non comunica con la persona che vede sullo schermo. Ma non è poi così spaventoso, vero?

    L'articolo Foto rubate e Rapimenti inventati! La nuova truffa che sta terrorizzando l’America proviene da Red Hot Cyber.

    Uncategorized

  • F1 Light Box Helps You Know the Current Race Status
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    F1 Light Box Helps You Know the Current Race Status

    [joppedc] wrote in to let us know that the Formula 1® season is coming to an end, and that the final race should be bangin’. To get ready, he built this ultra-sleek logo light box last week that does more than just sit there looking good, although it does that pretty well. This light box reacts to live race events, flashing yellow for safety cars, red for red flags, and green for, well, green flags.

    The excellent light box itself was modeled in Fusion 360, and the files are available on MakerWorld. The design is split into four parts — the main body, a backplate to mount the LEDs, the translucent front plate, and an enclosure for an ESP32.

    Doing it this way allowed [joppedc] to not only print in manageable pieces, it also allowed him to use different materials. Getting the front panel to diffuse light correctly took some experimenting to find the right thickness. Eventually, [joppedc] landed on 0.4 mm (two layers) of matte white PLA.

    There isn’t much in the way of brains behind this beauty, just an ESP32, a strip of WS2812B addressable LEDs, and a USB-C port for power. But it’s the software stack that ties everything together. The ESP32 has WLED, Home Assistant runs the show, and of course, there is the F1 sensor integration to get live race data.

    If you’re looking for more of an F1 dashboard, then we’ve got you covered.


    hackaday.com/2025/12/06/f1-lig…

    Uncategorized

  • Standalone USB-PD Stack For All Your Sink Needs
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    Standalone USB-PD Stack For All Your Sink Needs

    USB PD is a fun protocol to explore, but it can be a bit complex to fully implement. It makes sense we’re seeing new stacks pop up all the time, and today’s stack is a cool one as far as code reusability goes. [Vitaly] over on Hackaday.io brings us pdsink – a C++ based PD stack with no platform dependencies, and fully-featured sink capabilities.

    This stack can do SPR (5/9/15/20V) just like you’d expect, but it also does PPS without breaking a sweat – perfect for your Lithium Ion battery charging or any other current-limited shenanigans. What’s more, it can do EPR (28V and up) – for all your high-power needs. For reference, the SPR/PPS/EPR combination is all you could need from a PD stack intended for fully taking advantage of any USB-PD charger’s capabilities. The stack is currently tailored to the classic FUSB302, but [Vitaly] says it wouldn’t be hard to add support for a PD PHY chip of your choice.

    It’s nice to have a choice in how you want your PD interactions to go – we’ve covered a few stacks before, and each of them has strong and weak sides. Now, if you have the CPU bandwidth, you could go seriously low-tech and talk PD with just a few resistors, transistors, and GPIOs! Need to debug a particular USB-C edge case? Don’t forget a logger.


    hackaday.com/2025/12/06/standa…

    Uncategorized

  • Lessons Learned After Trying MeshCore for Off-grid Text Messaging
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    Lessons Learned After Trying MeshCore for Off-grid Text Messaging

    [Michael Lynch] recently decided to delve into the world of off-grid, decentralized communications with MeshCore, because being able to communicate wirelessly with others in a way that does not depend on traditional communication infrastructure is pretty compelling. After getting his hands on a variety of hardware and trying things out, he wrote up his thoughts from the perspective of a hardware-curious software developer.

    He ends up testing a variety of things: MeshCore firmware installed on a Heltec V3 board (used via an app over Bluetooth), a similar standalone device with antenna and battery built in (SenseCAP T-1000e, left in the header image), and a Lilygo T-Deck+ (right in the header image above). These all use MeshCore, which is built on and reportedly compatible with Meshtastic, a framework we have featured in the past.

    The cheapest way to get started is with a board like the Heltec v3, pictured here. It handles the LoRa wireless communications part, and one interfaces to it over Bluetooth.
    The first two devices are essentially MeshCore gateways, to which the user connects over Bluetooth. The T-Deck is a standalone device that resembles a Blackberry, complete with screen and keypad. [Michael] dove into what it was like to get them up and running.

    Probably his most significant takeaway was that the whole process of onboarding seemed a lot more difficult and much less clear than it could be. This is an experience many of us can relate to: the fragmented documentation that exists seems written both by and for people who are already intimately familiar with the project in its entirety.

    Another thing he learned was that while LoRa is a fantastic technology capable of communicating wirelessly over great distances with low power, those results require good antennas and line of sight. In a typical urban-ish environment, range is going to be much more limited. [Michael] was able to get a maximum range of about five blocks between two devices. Range could be improved by purchasing and installing repeaters or by having more devices online and in range of one another, but that’s where [Michael] drew the line. He felt he had gotten a pretty good idea of the state of things by then, and not being a radio expert, he declined to purchase repeater hardware without any real sense of where he should put them, or what performance gains he could expect by doing so.

    Probably the most surprising discovery was that MeshCore is not entirely open source, which seems odd for an off-grid decentralized communications framework. Some parts are open, but the official clients (the mobile apps, web app, and T-Deck firmware) are not. [Michael] found this out when, being primarily a software developer, he took a look at the code to see if there was anything he could do to improve the poor user experience on the T-Deck and found that the firmware was proprietary.

    [Michael]’s big takeaway as a hardware-curious software developer is that the concept is great and accessible (hardware is not expensive and there is no licensing requirement for LoRa), but it’s not really there yet in terms of whether it’s practical for someone to buy a few to distribute among friends for use in an emergency. Not without getting into setting up enough repeaters to ensure connectivity, anyway.


    hackaday.com/2025/12/06/lesson…

    Uncategorized

  • La rivoluzione culturale della cybersecurity
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    La rivoluzione culturale della cybersecurity


    @informatica
    A valle dello splendido DigEat Festival, organizzato dalla Digitalaw Srl a Lecce nei giorni 27-29 novembre, si ritiene utile approfondire alcuni temi dibattuti durante l’evento. L’idea che la cybersecurity sia […]
    L'articolo La rivoluzione culturale della cybersecurity proviene da Edoardo Limone.

    L'articolo

    Uncategorized

  • Bridging RTL-433 To Home Assistant
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    Bridging RTL-433 To Home Assistant

    If you’ve got an RTL-SDR compatible receiver, you’ve probably used it for picking up signals from all kinds of weird things. Now, [Jaron McDaniel] has built a tool to integrate many such devices into the world of Home Assistant.

    It’s called RTL-HAOS, and it’s intended to act as a bridge. Whatever you can pick up using the RTL_433 tool, you can set up with Home Assistant using RTL-HAOS. If you’re unfamiliar with RTL_433, it’s a multitalented data receiver for picking up all sorts of stuff on a range of bands using RTL-SDR receivers, as well as a range of other hardware. While it’s most closely associated with products that communicate in the 433 MHz band, it can also work with products that talk in 868 MHz, 315 MHz, 345 MHz, and 915 MHz, assuming your hardware supports it. Out of the box, it’s capable of working with everything from keyless entry systems to thermostats, weather stations, and energy monitors. You can even use it to listen to the tire pressure monitors in your Fiat Abarth 124 Spider, if you’re so inclined.

    [Jaron’s] tool integrates these devices nicely into Home Assistant, where they’ll appear automatically thanks to MQTT discovery. It also offers nice signal metrics like RSSI and SNR, so you can determine whether a given link is stable. You can even use multiple RTL-SDR dongles if you’re so inclined. If you’re eager to pull some existing environmental sensors into your smart home, this may prove a very easy way to do it.

    The cool thing about Home Assistant is that hackers are always working to integrate more gear into the ecosystem. Oftentimes, they’re far faster and more efficient at doing this than big-name corporations. Meanwhile, if you’re working on your own hacks for this popular smart home platform, we’d probably like to know about it. Be sure to hit up the tips line in due time.


    hackaday.com/2025/12/06/bridgi…

    Uncategorized

  • Emulate ROMs at 12MHz With Pico2 PIO
    cybersecurity@poliverso.orgundefined cybersecurity@poliverso.org

    Emulate ROMs at 12MHz With Pico2 PIO

    Nothing lasts forever, and that includes the ROMs required to make a retrocomputer run. Even worse, what if you’re rolling your own firmware? Period-appropriate EPROMs and their programmers aren’t always cheap or easy to get a hold of these days. [Kyo-ta04] had that problem, and thanks to them, we now all have a solution: Pico2ROMEmu, a ROM emulator based on, you guessed it, the Raspberry Pi Pico2.

    The Pico2ROMEmu in its natural habitat on a Z80 SBC.
    The ROM emulator has been tested at 10MHz with a Z80 processor and 12MHz with an MC68000. An interesting detail here is that rather than use the RP2350’s RISC-V or ARM cores, [kyo-ta04] is doing all the work using the chip’s powerful PIO. PIO means “programmable I/O,” and if you need a primer, check this out. Using PIO means the main core of the microcontroller needn’t be involved — and in this context, a faster ROM emulator.

    We’ve seen ROM emulators before, of course — the OneROM comes to mind, which can also use the RP2350 and its PIOs. That project hasn’t been chasing these sorts of speeds as it is focused on older, slower machines. That may change in the newest revision. It’s great to see another contender in this space, though, especially one to serve slightly higher-performance retrocomputers. Code and Gerbers for the Pico2RomeEMU are available on GitHub under an MIT license.

    Thanks to [kyo-ta04] for the tip.


    hackaday.com/2025/12/06/emulat…

    Uncategorized
  • 1 / 1
  • Login

  • Login or register to search.
  • First post
    Last post