
[Swift] Core ML과 MFCC를 활용한 감정 추론
·
Apple/Swift
안녕하세요! 피피아노입니다 🎵 육아 기록 앱을 개발하며, 아기의 울음소리를 분석해 감정을 분류하는 기능을 구현하게 되었습니다. 부모 입장에서 '왜 우는지'를 빠르게 파악하는 것은 매우 중요한 일이었고, 이 문제를 앱이 기술적으로 도울 수 있다면 큰 의미가 있겠다는 생각이 들었습니다. 이번 글에서는 해당 기능을 구현하며 어떤 기술을 사용했고, 구현 중 어떤 문제를 마주했고, 어떻게 해결했는지를 자세히 정리해보려고 합니다. 그럼 바로 시작하겠습니다!기능 개요기능: 아기의 울음소리를 분석하여 감정(예: 배고픔, 졸림 등)을 자동으로 분류사용 기술: Swift, SwiftUI, AVFoundation, Accelerate, Core ML모델: DeepInfant V2 CoreML 모델 사용입력: 마이크로 ..