基于PaddleSpeech的嬰兒啼哭識別(上)
2022-12-31 249 發(fā)布于吉林
版權(quán)
舉報
版權(quán)聲明:
本文內(nèi)容由阿里云實名注冊用戶自發(fā)貢獻,版權(quán)歸原作者所有,阿里云開發(fā)者社區(qū)不擁有其著作權(quán),亦不承擔相應法律責任。具體規(guī)則請查看《 阿里云開發(fā)者社區(qū)用戶服務協(xié)議》和 《阿里云開發(fā)者社區(qū)知識產(chǎn)權(quán)保護指引》。如果您發(fā)現(xiàn)本社區(qū)中有涉嫌抄襲的內(nèi)容,填寫 侵權(quán)投訴表單進行舉報,一經(jīng)查實,本社區(qū)將立刻刪除涉嫌侵權(quán)內(nèi)容。
簡介: 基于PaddleSpeech的嬰兒啼哭識別(上)
一、基于PaddleSpeech的嬰兒啼哭識別
1.項目背景
對嬰兒來說,啼哭聲是一種通訊的方式,一個非常有限的,但類似成年人進行交流的方式。它也是一種生物報警器,向外界傳達著嬰兒生理和心理的需求?;谔淇蘼暵暡〝y帶的信息,嬰兒的身體狀況才能被確定,疾病才能被檢測出來。因此,有效辨識啼哭聲,成功地將嬰兒啼哭聲“翻譯”成“成人語言”,讓我們能夠讀懂啼哭聲的含義,有重大的實際意義。
2.數(shù)據(jù)說明:
1.訓練數(shù)據(jù)集包含六類哭聲,已人工添加噪聲。A:awake(蘇醒)
B:diaper(換尿布)
C:hug(要抱抱)
D:hungry(饑餓)
E:sleepy(困乏)
F:uncomfortable(不舒服)
2.噪聲數(shù)據(jù)來源Noisex-92標準數(shù)據(jù)庫。二、PaddleSpeech環(huán)境準備
# 環(huán)境準備:安裝paddlespeech和paddleaudio !python -m pip install -q -U pip --user !pip install paddlespeech paddleaudio -U -q
import warnings warnings.filterwarnings("ignore") import IPython import numpy as np import matplotlib.pyplot as plt import paddle %matplotlib inline
三、數(shù)據(jù)預處理
1.數(shù)據(jù)解壓縮
# !unzip -qoa data/data41960/dddd.zip
2.查看聲音文件
from paddleaudio import load data, sr = load(file='train/awake/awake_0.wav', mono=True, dtype='float32') # 單通道,float32音頻樣本點 print('wav shape: {}'.format(data.shape)) print('sample rate: {}'.format(sr)) # 展示音頻波形 plt.figure() plt.plot(data) plt.show()
from paddleaudio import load data, sr = load(file='train/diaper/diaper_0.wav', mono=True, dtype='float32') # 單通道,float32音頻樣本點 print('wav shape: {}'.format(data.shape)) print('sample rate: {}'.format(sr)) # 展示音頻波形 plt.figure() plt.plot(data) plt.show()
!paddlespeech cls --input train/awake/awake_0.wav
3.音頻文件長度處理
# 查音頻長度 import contextlib import wave def get_sound_len(file_path): with contextlib.closing(wave.open(file_path, 'r')) as f: frames = f.getnframes() rate = f.getframerate() wav_length = frames / float(rate) return wav_length
# 編譯wav文件 import glob sound_files=glob.glob('train/*/*.wav') print(sound_files[0]) print(len(sound_files))
# 統(tǒng)計最長、最短音頻 sounds_len=[] for sound in sound_files: sounds_len.append(get_sound_len(sound)) print("音頻最大長度:",max(sounds_len),"秒") print("音頻最小長度:",min(sounds_len),"秒")
!cp train/hungry/hungry_0.wav ~/
# 音頻信息查看 import math import soundfile as sf import numpy as np import librosa data, samplerate = sf.read('hungry_0.wav') channels = len(data.shape) length_s = len(data)/float(samplerate) format_rate=16000 print(f"channels: {channels}") print(f"length_s: {length_s}") print(f"samplerate: {samplerate}")
# 統(tǒng)一到34s from pydub import AudioSegment audio = AudioSegment.from_wav('hungry_0.wav') print(str(audio.duration_seconds)) i = 1 padded = audio while padded.duration_seconds * 1000 < 34000: padded = audio * i i = i + 1 padded[0:34000].set_frame_rate(16000).export('padded-file.wav', format='wav')
import math import soundfile as sf import numpy as np import librosa data, samplerate = sf.read('padded-file.wav') channels = len(data.shape) length_s = len(data)/float(samplerate) format_rate=16000 print(f"channels: {channels}") print(f"length_s: {length_s}") print(f"samplerate: {samplerate}")
# 定義函數(shù),如未達到最大長度,則重復填充,最終從超過34s的音頻中截取 from pydub import AudioSegment def convert_sound_len(filename): audio = AudioSegment.from_wav(filename) i = 1 padded = audio*i while padded.duration_seconds * 1000 < 34000: i = i + 1 padded = audio * i padded[0:34000].set_frame_rate(16000).export(filename, format='wav')
# 統(tǒng)一所有音頻到定長 for sound in sound_files: convert_sound_len(sound)
3.自定義數(shù)據(jù)集
import os from paddlespeech.audio.datasets.dataset import AudioClassificationDataset class CustomDataset(AudioClassificationDataset): # List all the class labels label_list = [ 'awake', 'diaper', 'hug', 'hungry', 'sleepy', 'uncomfortable' ] train_data_dir='./train/' def __init__(self, **kwargs): files, labels = self._get_data() super(CustomDataset, self).__init__( files=files, labels=labels, feat_type='raw', **kwargs) # 返回音頻文件、label值 def _get_data(self): ''' This method offer information of wave files and labels. ''' files = [] labels = [] for i in range(len(self.label_list)): single_class_path=os.path.join(self.train_data_dir, self.label_list[i]) for sound in os.listdir(single_class_path): # print(sound) if 'wav' in sound: sound=os.path.join(single_class_path, sound) files.append(sound) labels.append(i) return files, labels
# 定義dataloader import paddle from paddlespeech.audio.features import LogMelSpectrogram # Feature config should be align with pretrained model sample_rate = 16000 feat_conf = { 'sr': sample_rate, 'n_fft': 1024, 'hop_length': 320, 'window': 'hann', 'win_length': 1024, 'f_min': 50.0, 'f_max': 14000.0, 'n_mels': 64, } train_ds = CustomDataset(sample_rate=sample_rate) feature_extractor = LogMelSpectrogram(**feat_conf) train_sampler = paddle.io.DistributedBatchSampler( train_ds, batch_size=64, shuffle=True, drop_last=False) train_loader = paddle.io.DataLoader( train_ds, batch_sampler=train_sampler, return_list=True, use_buffer_reader=True)
相關文章
牙齦口腔病癥識別
本文介紹了利用機器學習和深度學習技術進行牙齦病癥檢測的方法,重點探討了卷積神經(jīng)網(wǎng)絡(CNN)在醫(yī)學影像分析中的應用。通過數(shù)據(jù)準備、模型構(gòu)建、數(shù)據(jù)增強及訓練評估等步驟,展示了如何實現(xiàn)牙齦病癥的自動化診斷,旨在提高診斷效率和準確性,助力口腔健康的早期干預。
基于反光衣和檢測算法的應用探索
本文探討了利用機器學習和計算機視覺技術進行反光衣檢測的方法,涵蓋圖像預處理、目標檢測與分類、特征提取等關鍵技術。通過YOLOv5等模型的訓練與優(yōu)化,展示了實現(xiàn)高效反光衣識別的完整流程,旨在提升智能檢測系統(tǒng)的性能,應用于交通安全、工地監(jiān)控等領域。
目錄
一、基于PaddleSpeech的嬰兒啼哭識別 1.項目背景 2.數(shù)據(jù)說明: 二、PaddleSpeech環(huán)境準備 三、數(shù)據(jù)預處理 1.數(shù)據(jù)解壓縮 2.查看聲音文件 3.音頻文件長度處理 3.自定義數(shù)據(jù)集相關知識
嬰兒的喂養(yǎng)知識大全 嬰兒護理健康
嬰幼兒語言發(fā)育規(guī)律
嬰兒游泳知識大全
嬰兒游泳好嗎?嬰兒游泳的好處以及壞處分別是什么?
5種因素導致寶寶夜啼 中醫(yī)哪些方法能治療
嬰兒游泳的壞處是什么
母嬰護理知識大全
嬰兒游泳好不好
中醫(yī)如何外治小兒夜啼
《嬰幼兒營養(yǎng)喂哺與健康成長》【價格 目錄 書評 正版】
網(wǎng)址: 基于PaddleSpeech的嬰兒啼哭識別(上) http://www.u1s5d6.cn/newsview112643.html
推薦資訊
- 1發(fā)朋友圈對老公徹底失望的心情 12775
- 2BMI體重指數(shù)計算公式是什么 11235
- 3補腎吃什么 補腎最佳食物推薦 11199
- 4性生活姿勢有哪些 盤點夫妻性 10428
- 5BMI正常值范圍一般是多少? 10137
- 6在線基礎代謝率(BMR)計算 9652
- 7一邊做飯一邊躁狂怎么辦 9138
- 8從出汗看健康 出汗透露你的健 9063
- 9早上怎么喝水最健康? 8613
- 10五大原因危害女性健康 如何保 7828