LâArduino UNO Q marque une rĂ©volution pour la plateforme Arduino, fusionnant la simplicitĂ© du prototypage open-source avec la puissance de lâedge computing. Fruit dâun partenariat avec Qualcomm, cette carte hybride exĂ©cute Linux tout en restant compatible avec les shields et projets Arduino classiques. Conçue comme une boĂźte Ă outils tout-en-un, elle combine un microprocesseur Qualcomm pour le calcul intensif (IA, vision, rĂ©seau) et un microcontrĂŽleur STM32 pour le contrĂŽle temps rĂ©el. Elle sâadresse aux makers, Ă©ducateurs et dĂ©veloppeurs industriels, ouvrant la voie Ă des innovations futures.
En octobre 2025, Qualcomm a rachetĂ© Arduino pour booster l’informatique de pointe (edge computing), c’est-Ă -dire traiter les donnĂ©es prĂšs de lĂ oĂč elles sont créées, comme dans une smartwatch ou un robot, pour des projets de makers et des machines industrielles. De cette collaboration est nĂ© l’UNO Q, le premier produit combinant la puissance et la connectivitĂ© des puces Qualcomm avec la simplicitĂ© et l’approche open-source d’Arduino. Avec ses 33 millions d’utilisateurs, la communautĂ© reste au cĆur du projet, avec la promesse de schĂ©mas et fichiers Gerber accessibles Ă tous â ces derniers Ă©tant des « plans » prĂ©cis que les machines lisent pour fabriquer des circuits Ă©lectroniques.

Une architecture « Dual-Brain » : puissance et réactivité
LâUNO Q repose sur une architecture dual-processor unique :
- Processeur Qualcomm Dragonwing QRB2210 :
- Quad-core ARM Cortex-A53 64-bit @ 2.0 GHz (11 nm).
- GPU Adreno 702 + ISP Spectra (2Ă13 MP ou 25 MP @ 30 fps).
- Hexagon DSP pour accélération IA (TensorFlow Lite, Edge Impulse) et audio.
- OS : Debian Linux natif (support Docker pour apps conteneurisées).
- Usage : vision embarquée, scripts Python/Node, serveurs IoT locaux.
- MicrocontrĂŽleur STM32U585 :
- ARM Cortex-M33 @ 160 MHz, 2 Mo Flash, 786 Ko SRAM.
- Tùches : contrÎle moteurs, capteurs, PWM, logique déterministe.
- Sécurité : AES/SHA, TRNG pour chiffrement.
- OS : Zephyr RTOS avec Arduino Bridge pour sketches classiques.
- Basse consommation : ~1W en veille.
Les deux cĆurs communiquent via un bus SPI dĂ©diĂ© (~10-20 MHz), orchestrĂ© par Arduino Bridge, une couche logicielle simplifiant les Ă©changes (ex. : dĂ©tections IA vers actions moteur). Le MCU garantit le temps rĂ©el via Zephyr RTOS (scheduler prĂ©emptif, prioritĂ©s IRQ, watchdog matĂ©riel), avec une latence estimĂ©e <1ms pour PWM (thĂ©oriques et sous conditions optimales).
Spécifications techniques
| Composant | Détail |
|---|---|
| MPU | Qualcomm Dragonwing QRB2210 (Quad-core Cortex-A53 @ 2.0 GHz) |
| MCU | STM32U585 Cortex-M33 @ 160 MHz |
| RAM | 2 Go LPDDR4 |
| Stockage | 16 Go eMMC (slot microSD optionnel, jusquâĂ 1 To) |
| Wi-Fi | 802.11ac (dual-band 2.4/5 GHz) |
| Bluetooth | 5.1 (BLE + classic) |
| USB | 1à USB-C OTG (Power Delivery, sortie vidéo, périphériques comme clavier/souris/micro/cam via dongle) |
| GPIO | Brochage UNO R3 (14 I/O numériques, 6 analogiques) |
| Caméras | 2à MIPI-CSI |
| Affichage | DSI via adaptateur, USB-C alt mode possible (non confirmé) |
| Alimentation | USB-C 5V/3A ou VIN 7â12V |
| Consommation | ~3.5W usage mixte, ~1W idle |
| Connectique | Qwiic (IÂČC), header ventilateur 5V, JTAG |
| Extras | Matrice LED 8Ă13 (debug/UI), capteur tempĂ©rature, 4Ă LED RGB |
| Format | UNO R3 (shields compatibles) |
| Température | 0 °C à +70 °C |
Note : Performances (latences, FPS) basées sur specs similaires ou tests préliminaires. A vérifier selon le firmware sur docs.arduino.cc.
Premiers Pas
- Flash initial : Branchez la carte via USB-C et utilisez App Lab (compatible Windows, Mac, Linux) pour installer Debian ou Zephyr.
- Mises à jour OTA : Gérées via Foundries.io (par Wi-Fi).
- Premier projet : Essayez le modĂšle App Lab « DĂ©tection dâobjets » (avec camĂ©ra et moteur).
- Ressources : Consultez les docs Arduino, le forum communautaire ou le store (environ 44 ⏠pour la version de base).
Design matériel optimisé
- PCB : 6 couches, plan de masse pour faible EMI et dissipation thermique.
- RF : Antenne Wi-Fi/BT intégrée avec filtre EMI.
- Ănergie : RĂ©gulateurs buck-boost, support Power-over-USB-C (PD).
- Multimédia : GPU Adreno + ISP Spectra pour encodage/décodage matériel.
- Sécurité : Enclaves sécurisées MPU/MCU, TRNG pour entropie.
Comparaison : UNO Q vs. UNO R3 vs. Raspberry Pi 5
| Caractéristique | Arduino UNO R3 | Arduino UNO Q | Raspberry Pi 5 |
|---|---|---|---|
| Processeur | ATmega328P (8-bit, 16 MHz) | QRB2210 + STM32U585 | Cortex-A76 quad @ 2.4 GHz |
| Architecture | MCU seul | Dual MPU/MCU | MPU seul |
| RAM | 2 Ko | 2 Go LPDDR4 | 4â8 Go LPDDR4X |
| Stockage | 32 Ko Flash | 16 Go eMMC + microSD | microSD (NVMe via PCIe) |
| Connectivité | Aucune | Wi-Fi 5, BT 5.1 | Wi-Fi 6, BT 5.0, Gigabit Ethernet |
| Caméra/GPU | Non | Adreno 702, 2à MIPI-CSI | VideoCore VII |
| AI/ML | Non | TensorFlow Lite, OpenCV | TensorFlow, OpenCV |
| GPIO | UNO (14+6) | UNO (14+6) | 40-pin polyvalent |
| OS | Aucun | Debian + Zephyr RTOS | Linux (Raspbian) |
| Conso | ~0.5W | ~3.5W | ~5-7W |
| Prix | ~20-25 ⏠| ~44-59 ⏠| ~60-80 ⏠|
| Usage | Ăducation, capteurs | Robotique, IA, IoT | Serveurs, multimĂ©dia |
UNO Q excelle en contrÎle temps réel hybride (latence estimée <1ms vs. 5-10ms pour Pi 5 en tùches moteurs) et IA embarquée légÚre (ex. : YOLOv5-nano ~10-15 FPS, tests Cortex-A53 similaires). Pi 5 domine en multimédia et serveurs grùce à son GPU et Ethernet natif.
Arduino App Lab : prototypage rapide

LâUNO Q inclut Arduino App Lab, un IDE unifiĂ© (prĂ©installĂ©, accessible via Wi-Fi/USB-C) pour programmer le MPU (Python/Node) et le MCU (Arduino C++/Zephyr). Il propose :
- Templates : dĂ©tection dâobjets (YOLO), reconnaissance vocale, IoT MQTT.
- Support : TensorFlow Lite Micro (MCU), OpenCV (MPU), Edge Impulse (ML ops).
- Inclut des ‘Apps’ (exemples autonomes prĂȘts Ă l’emploi) et ‘Bricks’ (fonctionnalitĂ©s plug-and-play), avec modĂšles AI prĂ©-chargĂ©s pour dĂ©tection objets/humains, anomalies, classification image/son et keyword spotting.
- Headless mode : configuration via navigateur pour projets distants.
Exemple simple (détection objet + action moteur) :
// MCU : Trigger PWM si objet détecté (via MPU)
#include <ArduinoBridge.h>
void setup() {
pinMode(9, OUTPUT); // PWM moteur
Bridge.begin(); // Init com MPU-MCU
}
void loop() {
if (Bridge.readObjectDetected()) { // Objet vu par YOLO
analogWrite(9, 255); // Moteur ON
} else {
analogWrite(9, 0);
}
delay(10);
}
IA et vision embarquées
- Vision : Classification dâimages (TensorFlow Lite, estimĂ© ~10-15 FPS pour YOLOv5-nano, optimisĂ© via GPU Adreno/DSP Hexagon), dĂ©tection dâobjets (OpenCV accĂ©lĂ©rĂ©). Pilotes MIPI-CSI en bĂȘta (octobre 2025), mises Ă jour OTA prĂ©vues. ModĂšles prĂ©-chargĂ©s pour dĂ©tection objets/humains, anomalies, classification image/son et keyword spotting, sans envoi cloud.
- Audio : Reconnaissance vocale locale, dĂ©tection dâĂ©vĂ©nements sonores.
- Avantage : Pas de cloud, latence <100ms pour actions couplées (ex. : moteur activé sur détection).
Extensibilité : shields et Qwiic
- Shields UNO R3 : Compatibilité physique totale (ex. : Motor Shield, Sensor Shield).
- Qwiic (IÂČC) : Branchement rapide de capteurs/modules sans soudure (ex. : SparkFun ToF, OLED), pour ModulinoÂź nodes et modules tiers.
- Extras : Header ventilateur 5V, JTAG pour debug, matrice LED 8Ă13 pour UI simple. BĂ©nĂ©ficie des bibliothĂšques, sketches et projets dĂ©veloppĂ©s par des millions d’utilisateurs de l’Ă©cosystĂšme UNO.
Cas dâusage et idĂ©es de projets avancĂ©s
LâUNO Q ouvre la voie Ă des projets combinant IA, vision, IoT et contrĂŽle temps rĂ©el :
- Robot autonome à vision IA : Caméra MIPI-CSI (ex. : OV5647) avec YOLOv5-nano (App Lab) pour détecter obstacles/lignes, shield moteur (L298N) piloté par le MCU (<1ms). Idéal pour robotique éducative ou industrielle.
- Station IoT sécurisée : Capteurs Qwiic (ex. : BME680 pour température/vibrations), chiffrement AES/TRNG, envoi Wi-Fi (MQTT). Stockage local (eMMC/microSD) pour monitoring sans cloud.
- Caméra intelligente : Détection mouvement/objet (OpenCV, MPU) avec caméra 13MP, clips sur eMMC, alertes via buzzer Qwiic (MCU). Parfait pour smart home/sécurité.
- Assistant vocal domotique : Micro (ex. : INMP441) pour reconnaissance vocale (Edge Impulse), contrĂŽle de relais (lumiĂšres/moteurs) via GPIO, affichage sur OLED Qwiic.
- Lab Ă©ducatif IA/robotique : Projets pĂ©dagogiques mĂȘlant Python (MPU, vision couleur) et C++ (MCU, moteurs/capteurs). Exemple : robot triant objets par couleur.
Astuce : Utilisez App Lab pour des templates (vision, IoT, audio) et la compatibilité shields/Qwiic pour un prototypage rapide. Partagez vos créations sur forum.arduino.cc !
Avantages et limites
Avantages :
- Puissance (IA, vision) + contrÎle temps réel.
- App Lab accélÚre le prototypage, avec modÚles AI et exemples pré-chargés pour un démarrage instantané.
- Compatibilité shields + Qwiic.
- Consommation optimisée (~1W idle).
Limites :
- 1à USB-C (hub requis pour multi-périphériques).
- Pas dâEthernet/HDMI natifs.
- GPU moins puissant que Pi 5 pour multimédia.
- ĂcosystĂšme jeune : Pilotes MIPI-CSI/DSI en bĂȘta (octobre 2025), pouvant limiter stabilitĂ©/rĂ©solution. OTA via Foundries.io sans calendrier fixe. Support long terme liĂ© Ă Qualcomm/Arduino (schĂ©mas open-source confirmĂ©s). Testez via App Lab et suivez forum.arduino.cc.
Conclusion
LâArduino UNO Q combine la rĂ©activitĂ© de lâArduino classique avec la puissance de Linux, offrant une plateforme ouverte pour la robotique, lâIA locale et lâIoT. GrĂące Ă App Lab et sa compatibilitĂ© avec les shields et connecteurs Qwiic, elle reste accessible. Bien que son Ă©cosystĂšme soit en maturation, elle sert de pont entre lâĂ©ducation et lâindustrie, avec un potentiel futur immense : robots autonomes apprenants, maisons intelligentes, outils agricoles automatisĂ©s. Soutenue par Qualcomm et la communautĂ© Arduino, elle pourrait devenir une rĂ©fĂ©rence pour lâinnovation.
Soutenez le site et lancez vos projets avec lâUNO Q !
Vous avez aimĂ© cet article ? Aidez le site et partagez des tutos et analyses sur le hardware open-source via un don financier ou en offrant un Arduino UNO Q pour de futurs projets (contactez via le formulaire du site). Imaginez les possibilitĂ©s : robots autonomes avec vision IA, stations IoT sĂ©curisĂ©es ou labs Ă©ducatifs mĂȘlant C++ et Python. Ensemble, faisons vivre la communautĂ© maker !
