网易首页 > 网易号 > 正文 申请入驻

基于LSTM-CNN的人体活动识别

0
分享至

人体活动识别(HAR)是一种使用人工智能(AI)从智能手表等活动记录设备产生的原始数据中识别人类活动的方法。 当人们执行某种动作时,人们佩戴的传感器(智能手表、手环、专用设备等)就会产生信号。这些收集信息的传感器包括加速度计、陀螺仪和磁力计。人类活动识别有各种各样的应用,从为病人和残疾人提供帮助到像游戏这样严重依赖于分析运动技能的领域。我们可以将这些人类活动识别技术大致分为两类:固定传感器和移动传感器。在本文中,我们使用移动传感器产生的原始数据来识别人类活动。

在本文中,我将使用LSTM (Long - term Memory)和CNN (Convolutional Neural Network)来识别下面的人类活动:

· 下楼

· 上楼

· 跑步

· 坐着

· 站立

· 步行

你可能会考虑为什么我们要使用LSTM-CNN模型而不是基本的机器学习方法?

机器学习方法在很大程度上依赖于启发式手动特征提取人类活动识别任务,而我们这里需要做的是端到端的学习,简化了启发式手动提取特征的操作。

我将要使用的模型是一个深神经网络,该网络是LSTM和CNN的组合形成的,并且具有提取活动特征和仅使用模型参数进行分类的能力。

这里我们使用WISDM数据集,总计1.098.209样本。 通过我们的训练,模型的F1得分为0.96,在测试集上,F1得分为0.89。

首先,我们将导入我们将需要的所有必要库。

from pandas import read_csv, unique
import numpy as np
from scipy.interpolate import interp1d
from scipy.stats import mode
from sklearn.preprocessing import LabelEncoder
from sklearn.metrics import classification_report, confusion_matrix, ConfusionMatrixDisplay
from tensorflow import stack
from tensorflow.keras.utils import to_categorical
from keras.models import Sequential
from keras.layers import Dense, GlobalAveragePooling1D, BatchNormalization, MaxPool1D, Reshape, Activation
from keras.layers import Conv1D, LSTM
from keras.callbacks import ModelCheckpoint, EarlyStopping
import matplotlib.pyplot as plt
%matplotlib inline
import warnings
warnings.filterwarnings("ignore")

我们将使用Sklearn,Tensorflow,Keras,Scipy和Numpy来构建模型和进行数据预处理。使用PANDAS 进行数据加载,使用matplotlib进行数据可视化。

WISDM是由个人腰间携带的移动设备上的加速计记录下来。 该数据收集是由个人监督的可以确保数据的质量。 我们将使用的文件是WISDM_AR_V1.1_RAW.TXT。 使用PANDAS,可以将数据集加载到DataAframe中,如下面代码:

def read_data(filepath):
df = read_csv(filepath, header=None, names=['user-id',
'activity',
'timestamp',
'X',
'Y',
'Z'])
## removing ';' from last column and converting it to float
df['Z'].replace(regex=True, inplace=True, to_replace=r';', value=r'')
df['Z'] = df['Z'].apply(convert_to_float)
return df
def convert_to_float(x):
try:
return np.float64(x)
except:
return np.nan
df = read_data('Dataset/WISDM_ar_v1.1/WISDM_ar_v1.1_raw.txt')
df

plt.figure(figsize=(15, 5))
plt.xlabel('Activity Type')
plt.ylabel('Training examples')
df['activity'].value_counts().plot(kind='bar',
title='Training examples by Activity Types')
plt.show()
plt.figure(figsize=(15, 5))
plt.xlabel('User')
plt.ylabel('Training examples')
df['user-id'].value_counts().plot(kind='bar',
title='Training examples by user')
plt.show()

现在我将收集的三个轴上的加速度计数据进行可视化。

def axis_plot(ax, x, y, title):
ax.plot(x, y, 'r')
ax.set_title(title)
ax.xaxis.set_visible(False)
ax.set_ylim([min(y) - np.std(y), max(y) + np.std(y)])
ax.set_xlim([min(x), max(x)])
ax.grid(True)
for activity in df['activity'].unique():
limit = df[df['activity'] == activity][:180]
fig, (ax0, ax1, ax2) = plt.subplots(nrows=3, sharex=True, figsize=(15, 10))
axis_plot(ax0, limit['timestamp'], limit['X'], 'x-axis')
axis_plot(ax1, limit['timestamp'], limit['Y'], 'y-axis')
axis_plot(ax2, limit['timestamp'], limit['Z'], 'z-axis')
plt.subplots_adjust(hspace=0.2)
fig.suptitle(activity)
plt.subplots_adjust(top=0.9)
plt.show()

数据预处理是一项非常重要的任务,它使我们的模型能够更好的利用我们的原始数据。这里将使用的数据预处理方法有:

· 标签编码

· 线性插值

· 数据分割

· 归一化

· 时间序列分割

· 独热编码

标签编码

由于模型不能接受非数字标签作为输入,我们将在另一列中添加' activity '列的编码标签,并将其命名为' activityEncode '。标签被转换成如下所示的数字标签(这个标签是我们要预测的结果标签)

· Downstairs [0]

· Jogging [1]

· Sitting [2]

· Standing [3]

· Upstairs [4]

· Walking [5]

label_encode = LabelEncoder()
df['activityEncode'] = label_encode.fit_transform(df['activity'].values.ravel())
df

线性插值

利用线性插值可以避免采集过程中出现NaN的数据丢失的问题。它将通过插值法填充缺失的值。虽然在这个数据集中只有一个NaN值,但为了我们的展示,还是需要实现它。

interpolation_fn = interp1d(df['activityEncode'] ,df['Z'], kind='linear')
null_list = df[df['Z'].isnull()].index.tolist()
for i in null_list:
y = df['activityEncode'][i]
value = interpolation_fn(y)
df['Z']=df['Z'].fillna(value)
print(value)

数据分割

根据用户id进行数据分割,避免数据分割错误。我们在训练集中使用id小于或等于27的用户,其余的在测试集中使用。

df_test = df[df['user-id'] > 27]
df_train = df[df['user-id'] <= 27]

归一化

在训练之前,需要将数据特征归一化到0到1的范围内。我们用的方法是

df_train['X'] = (df_train['X']-df_train['X'].min())/(df_train['X'].max()-df_train['X'].min())
df_train['Y'] = (df_train['Y']-df_train['Y'].min())/(df_train['Y'].max()-df_train['Y'].min())
df_train['Z'] = (df_train['Z']-df_train['Z'].min())/(df_train['Z'].max()-df_train['Z'].min())
df_train

时间序列分割

因为我们处理的是时间序列数据, 所以需要创建一个分割的函数,标签名称和每个记录的范围进行分段。 此函数在x_train和y_train中执行特征的分离,将每80个时间段分成一组数据。

def segments(df, time_steps, step, label_name):
N_FEATURES = 3
segments = []
labels = []
for i in range(0, len(df) - time_steps, step):
xs = df['X'].values[i:i+time_steps]
ys = df['Y'].values[i:i+time_steps]
zs = df['Z'].values[i:i+time_steps]
label = mode(df[label_name][i:i+time_steps])[0][0]
segments.append([xs, ys, zs])
labels.append(label)
reshaped_segments = np.asarray(segments, dtype=np.float32).reshape(-1, time_steps, N_FEATURES)
labels = np.asarray(labels)
return reshaped_segments, labels
TIME_PERIOD = 80
STEP_DISTANCE = 40
LABEL = 'activityEncode'
x_train, y_train = segments(df_train, TIME_PERIOD, STEP_DISTANCE, LABEL)

这样,x_train和y_train形状变为:

print('x_train shape:', x_train.shape)
print('Training samples:', x_train.shape[0])
print('y_train shape:', y_train.shape)
x_train shape: (20334, 80, 3)
Training samples: 20334
y_train shape: (20334,)

这里还存储了一些后面用到的数据:时间段(time_period),传感器数(sensors)和类(num_classes)的数量。

time_period, sensors = x_train.shape[1], x_train.shape[2]
num_classes = label_encode.classes_.size
print(list(label_encode.classes_))
['Downstairs', 'Jogging', 'Sitting', 'Standing', 'Upstairs', 'Walking']

最后需要使用Reshape将其转换为列表,作为keras的输入

input_shape = time_period * sensors
x_train = x_train.reshape(x_train.shape[0], input_shape)
print("Input Shape: ", input_shape)
print("Input Data Shape: ", x_train.shape)
Input Shape: 240
Input Data Shape: (20334, 240)

最后需要将所有数据转换为float32。

x_train = x_train.astype('float32')y_train = y_train.astype('float32')

独热编码

这是数据预处理的最后一步,我们将通过编码标签并将其存储到y_train_hot中来执行。

y_train_hot = to_categorical(y_train, num_classes)
print("y_train shape: ", y_train_hot.shape)
y_train shape: (20334, 6)

我们使用的模型是一个由8层组成的序列模型。模型前两层由LSTM组成,每个LSTM具有32个神经元,使用的激活函数为Relu。然后是用于提取空间特征的卷积层。

在两层的连接处需要改变LSTM输出维度,因为输出具有3个维度(样本数,时间步长,输入维度),而CNN则需要4维输入(样本数,1,时间步长,输入)。

第一个CNN层具有64个神经元,另一个神经元有128个神经元。在第一和第二CNN层之间,我们有一个最大池层来执行下采样操作。然后是全局平均池(GAP)层将多D特征映射转换为1-D特征向量,因为在此层中不需要参数,所以会减少全局模型参数。然后是BN层,该层有助于模型的收敛性。

最后一层是模型的输出层,该输出层只是具有SoftMax分类器层的6个神经元的完全连接的层,该层表示当前类的概率。

model = Sequential()
model.add(LSTM(32, return_sequences=True, input_shape=(input_shape,1), activation='relu'))
model.add(LSTM(32,return_sequences=True, activation='relu'))
model.add(Reshape((1, 240, 32)))
model.add(Conv1D(filters=64,kernel_size=2, activation='relu', strides=2))
model.add(Reshape((120, 64)))
model.add(MaxPool1D(pool_size=4, padding='same'))
model.add(Conv1D(filters=192, kernel_size=2, activation='relu', strides=1))
model.add(Reshape((29, 192)))
model.add(GlobalAveragePooling1D())
model.add(BatchNormalization(epsilon=1e-06))
model.add(Dense(6))
model.add(Activation('softmax'))
print(model.summary())

经过训练,模型给出了98.02%的准确率和0.0058的损失。训练F1得分为0.96。

model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
history = model.fit(x_train,
y_train_hot,
batch_size= 192,
epochs=100
)

可视化训练的准确性和损失变化图。

plt.figure(figsize=(6, 4))
plt.plot(history.history['accuracy'], 'r', label='Accuracy of training data')
plt.plot(history.history['loss'], 'r--', label='Loss of training data')
plt.title('Model Accuracy and Loss')
plt.ylabel('Accuracy and Loss')
plt.xlabel('Training Epoch')
plt.ylim(0)
plt.legend()
plt.show()
y_pred_train = model.predict(x_train)
max_y_pred_train = np.argmax(y_pred_train, axis=1)
print(classification_report(y_train, max_y_pred_train))

在测试数据集上测试它,但在通过测试集之前,需要对测试集进行相同的预处理。

df_test['X'] = (df_test['X']-df_test['X'].min())/(df_test['X'].max()-df_test['X'].min())
df_test['Y'] = (df_test['Y']-df_test['Y'].min())/(df_test['Y'].max()-df_test['Y'].min())
df_test['Z'] = (df_test['Z']-df_test['Z'].min())/(df_test['Z'].max()-df_test['Z'].min())
x_test, y_test = segments(df_test,
TIME_PERIOD,
STEP_DISTANCE,
LABEL)
x_test = x_test.reshape(x_test.shape[0], input_shape)
x_test = x_test.astype('float32')
y_test = y_test.astype('float32')
y_test = to_categorical(y_test, num_classes)

在评估我们的测试数据集后,得到了89.14%的准确率和0.4647的损失。F1测试得分为0.89。

score = model.evaluate(x_test, y_test)
print("Accuracy:", score[1])
print("Loss:", score[0])

下面绘制混淆矩阵更好地理解对测试数据集的预测。

predictions = model.predict(x_test)
predictions = np.argmax(predictions, axis=1)
y_test_pred = np.argmax(y_test, axis=1)
cm = confusion_matrix(y_test_pred, predictions)
cm_disp = ConfusionMatrixDisplay(confusion_matrix= cm)
cm_disp.plot()
plt.show()

还可以在测试数据集上评估的模型的分类报告。

print(classification_report(y_test_pred, predictions))

LSTM-CNN模型的性能比任何其他机器学习模型要好得多。本文的代码可以在GitHub上找到。

https://avoid.overfit.cn/post/a6438a08d1d84923933b0a811d8edc11

您可以尝试自己实现它,通过优化模型来提高F1分数。

另:这个模型是来自于Xia Kun, Huang Jianguang, and Hanyu Wang在IEEE期刊上发表的论文LSTM-CNN Architecture for Human Activity Recognition。

作者:Tanmay chauhan

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
一口价11.37万元起,东风雪铁龙新款凡尔赛C5 X上市

一口价11.37万元起,东风雪铁龙新款凡尔赛C5 X上市

IT之家
2026-03-23 20:54:13
张水华辞职后首次夺冠!经济学家:幸亏没听馊主意 赖在医院不走

张水华辞职后首次夺冠!经济学家:幸亏没听馊主意 赖在医院不走

念洲
2026-03-23 07:48:05
CBA再现笑料!莫兰德被犯规却鄢手骐罚球,看完回放取消罚球+球权

CBA再现笑料!莫兰德被犯规却鄢手骐罚球,看完回放取消罚球+球权

篮球资讯达人
2026-03-23 22:11:37
最新研究:早餐加一物,降低全身炎症、癌症风险!爱吃的人赚到了

最新研究:早餐加一物,降低全身炎症、癌症风险!爱吃的人赚到了

DrX说
2026-03-23 14:00:13
歼20总师被除名:长期领导军工央企,最近照流出,事发全过程披露

歼20总师被除名:长期领导军工央企,最近照流出,事发全过程披露

博士观察
2026-03-20 21:41:54
福特号航母已撤至希腊!伊朗:若岛屿遭攻击,将立即布水雷封锁波斯湾!伊朗媒体列出11个目标,包括海水淡化站和核电站

福特号航母已撤至希腊!伊朗:若岛屿遭攻击,将立即布水雷封锁波斯湾!伊朗媒体列出11个目标,包括海水淡化站和核电站

每日经济新闻
2026-03-23 20:28:05
季季9分!HBO这部美剧,后劲太大了

季季9分!HBO这部美剧,后劲太大了

来看美剧
2026-03-23 20:22:42
演员朱珠疑似塌房?照片流出,惊呆网友!

演员朱珠疑似塌房?照片流出,惊呆网友!

大眼妹妹
2025-12-15 10:39:19
加沙童婚率上升

加沙童婚率上升

老王说正义
2026-03-22 23:43:17
在美国坐灰狗是怎样一种经历?

在美国坐灰狗是怎样一种经历?

二湘空间
2026-03-21 09:18:24
周恩来想调兵却调不动?毛主席当年定下的规矩,让他晚年说出这番话

周恩来想调兵却调不动?毛主席当年定下的规矩,让他晚年说出这番话

文史明鉴
2026-03-23 16:47:14
官宣长剑1000正式战备值班:5000公里外,海陆空目标通杀

官宣长剑1000正式战备值班:5000公里外,海陆空目标通杀

瞩望云霄
2026-03-19 10:10:11
上海出了一家水变油的“科技”公司?财联社还帮忙宣传,全是一伙诈骗犯

上海出了一家水变油的“科技”公司?财联社还帮忙宣传,全是一伙诈骗犯

回旋镖
2026-03-22 10:31:37
女教师卖自拍淫秽视频获利24万,将自己裸体视频与和他人的性爱视频通过发送链接,出售给他人观看

女教师卖自拍淫秽视频获利24万,将自己裸体视频与和他人的性爱视频通过发送链接,出售给他人观看

观威海
2026-03-22 07:59:02
输给上海队16分!杜锋犯了3个错误,坑惨了广东队

输给上海队16分!杜锋犯了3个错误,坑惨了广东队

体育哲人
2026-03-23 22:13:52
女篮世界杯实力榜出炉!美国队第一,日本队第十,中国队名次不变

女篮世界杯实力榜出炉!美国队第一,日本队第十,中国队名次不变

林子说事
2026-03-23 05:02:38
头皮发麻!快检查自家阳台!有深圳人家里已大量出现!官方提醒:千万别摸

头皮发麻!快检查自家阳台!有深圳人家里已大量出现!官方提醒:千万别摸

南方都市报
2026-03-23 21:20:37
“我很记仇,能折磨死你们!”南京一老师课堂放狠话,并授意低分学生考试作弊提分,家长:孩子已厌学干呕;学校:教育局已介入

“我很记仇,能折磨死你们!”南京一老师课堂放狠话,并授意低分学生考试作弊提分,家长:孩子已厌学干呕;学校:教育局已介入

大风新闻
2026-03-23 21:36:04
深夜,全线爆发!A50,直线拉升!中概股大涨

深夜,全线爆发!A50,直线拉升!中概股大涨

新浪财经
2026-03-23 22:48:43
成都警方:网传“崇州出了命案,遇害6人”等信息为谣言,依法对陈某某(女,18岁)予以行政处罚

成都警方:网传“崇州出了命案,遇害6人”等信息为谣言,依法对陈某某(女,18岁)予以行政处罚

封面新闻
2026-03-23 00:37:05
2026-03-23 23:15:00
deephub incentive-icons
deephub
CV NLP和数据挖掘知识
1957文章数 1461关注度
往期回顾 全部

科技要闻

裁掉2万多名员工后,扎克伯格对自己下手了

头条要闻

美国前防长:特朗普太过天真 应对这场伊朗危机负全责

头条要闻

美国前防长:特朗普太过天真 应对这场伊朗危机负全责

体育要闻

不敢放手一搏,你拿什么去争冠?

娱乐要闻

钟丽缇就女儿考拉争议道歉:女儿还小

财经要闻

市场见底了吗?谁在抛售?机构火线解读

汽车要闻

东风雪铁龙新凡尔赛C5X上市 官方一口价11.37万起

态度原创

家居
旅游
健康
手机
房产

家居要闻

智慧生活 奢享家居

旅游要闻

毛泽东曾在此居住,这幢位于新天地的历史建筑明起对外开放!先睹为快

转头就晕的耳石症,能开车上班吗?

手机要闻

传闻苹果折叠屏iPhone采用双层玻璃设计 明显减轻折痕

房产要闻

440亿!海南又一城城更计划曝光!TOP10房企巨头突然杀入!

无障碍浏览 进入关怀版