Je développerai des modèles tinyml personnalisés pour microcontrôleurs et ordinateurs monocarte


À propos de ce service
Traduction automatique
Apportez de l’intelligence à la périphérie ! Je développe et optimise des modèles d’IA performants pour du matériel à ressources limitées comme ESP32, ESP32-S3, Raspberry Pi et STM32. Si vous avez besoin d’exécuter des Machine Learning complexes sur des microcontrôleurs avec peu de RAM et de Flash, je suis là pour vous aider.
Mes compétences incluent :
- Développement d’IA personnalisé : Architectures optimisées (CNN, RNN, TinyYOLO, MobileNet) pour les appareils Edge.
- Optimisation de modèles : Quantification avancée Post-Training (INT8/Float16) et pruning pour réduire la taille et la consommation d’énergie.
- Déploiement : Code prêt pour la production TensorFlow Lite Micro (TFLite) et C++ pour Arduino/ESP-IDF.
- Vision par ordinateur : Classification d’images et détection d’objets pour ESP32-Cam.
- Traitement du signal : IA pour capteurs IMU, détection de mots-clés et détection d’anomalies.
Technologies supportées :
- Frameworks : TensorFlow Lite, PyTorch, Edge Impulse, Keras.
- Matériel : séries ESP32, Raspberry Pi 4/5/Pico, Arduino, ARM Cortex-M.
Je fais le pont entre la science des données lourde et le silicium embarqué.
Contactez-moi avant de commander pour discuter de vos contraintes matérielles
Découvrez Saran Khaliq
Building smarter solutions with Computer visions, AI and Robotics
- DePakistan
- Membre depuisavr. 2021
- Temps de réponse moy.1 heure
- Dernière commande1 semaine
Langues
Ourdou, Hindi, Anglais
Traduction automatique
Autres services de Développement IA I Offre
FAQ
Traduction automatique
1. Un modèle d’IA peut-il fonctionner sur un ESP32 ou ESP32-S3 ?
Pas directement. Les modèles standards sont trop volumineux pour la RAM du microcontrôleur. Je me spécialise dans la quantification (conversion de 32 bits en 8 bits) et le pruning pour compresser les modèles afin qu’ils tiennent dans la mémoire limitée de l’ESP32 sans perdre en précision significative.
2. Quels frameworks utilisez-vous pour l’IA embarquée ?
2. Quels frameworks utilisez-vous pour l’IA embarquée ? Je travaille principalement avec TensorFlow Lite Micro (TFLite), Edge Impulse, ESPDL, ESP-PPQ (outils de quantification) et PyTorch. Pour le déploiement, je fournis du code C++ ou compatible Arduino prêt à être flashé sur votre appareil via ESP-IDF ou Arduino IDE.
3. Dois-je fournir le jeu de données pour l’entraînement ?
Idéalement, oui. Pour des tâches personnalisées comme la détection d’objets spécifiques ou des signaux de capteurs uniques, un jeu de données de haute qualité est nécessaire. Si vous n’en avez pas, je peux vous aider à rechercher des données open source ou vous conseiller sur la collecte via votre matériel.
4. Quelle est la différence entre Cloud AI et Edge AI (TinyML) ?
Oui. Si votre modèle actuel ralentit ou fait planter votre ESP32/Pi, je peux appliquer des techniques d’optimisation comme la fusion de couches et la quantification INT8 pour augmenter la vitesse d’inférence (FPS) et réduire l’empreinte mémoire.
5. Pouvez-vous optimiser mon modèle existant pour qu’il fonctionne plus rapidement ?
Oui. Si votre modèle actuel ralentit ou fait planter votre ESP32/Pi, je peux appliquer des techniques d’optimisation comme la fusion de couches et la quantification INT8 pour augmenter la vitesse d’inférence (FPS) et réduire l’empreinte mémoire.

