텍스트 감정 인식 AI모델 : Python、Tensorflow、LSTM、Keras

 

GitHub – Josoobeen / Emotion_recognition_LSTM : 한국어를 위한 시그모이드 LSTM. 한국어를 위한 sigmoid LSTM을 삽입하는 문자. 문자 임베딩. Josoobeen/Emotion_recognition 기여_GitHub.github.com 계정 생성을 통한 LSTM 개발 GitHub – Josoobeen/Emotion_recognition_LSTM: 한국어를 위한 시그모이드 LSTM. 한국어를 위한 sigmoid LSTM을 삽입하는 문자. 문자 임베딩. Josoobeen/Emotion_recognition 기여_GitHub.github.com 계정 생성을 통한 LSTM 개발

감정 인식을 위한 데이터는 https://aihub.or.kr/ 에서 검색되었습니다. 해당 사이트에서 감정분석 데이터를 다운받아 훈련하면 됩니다. 데이터 전처리 Data Preprocessing 감정 인식을 위한 데이터는 https://aihub.or.kr/ 에서 검색되었습니다. 해당 사이트에서 감정분석 데이터를 다운받아 훈련하면 됩니다. 데이터 전처리 Data Preprocessing

주석(#)을 삭제하고 실행하면 설치된 자동으로 해제됩니다. 압축 해제 후 압축 파일을 삭제하고 다음 코드를 실행합니다. 주석(#)을 삭제하고 실행하면 설치된 자동으로 해제됩니다. 압축 해제 후 압축 파일을 삭제하고 다음 코드를 실행합니다.

다음 코드에서는 압축이 풀린 파일의 주소 값을 가져옵니다. 약 2300개가 되기 때문에 손 하나하나 호출할 수 없습니다. 다음 코드에서는 압축이 풀린 파일의 주소 값을 가져옵니다. 약 2300개가 되기 때문에 손 하나하나 호출할 수 없습니다.

텍스트는 한글을 제외한 모든 문자를 지우고 긍정, 중립, 부정 데이터를 3개의 container에 있는 softmax 값으로 도출합니다. Vocaburary 형성 텍스트는 한글을 제외한 모든 문자를 지우고 긍정, 중립, 부정 데이터를 3개의 container에 있는 softmax 값으로 도출합니다. Vocaburary형성

단어책을 만들면서 숫자 index와 단어 character를 하나씩 할당을 합니다. char2idx는 단어를 숫자로 바꿀 때 사용되고, idx2char는 숫자를 단어로 바꿀 때 사용합니다. 단어책을 만들면서 숫자 index와 단어 character를 하나씩 할당을 합니다. char2idx는 단어를 숫자로 바꿀 때 사용되고, idx2char는 숫자를 단어로 바꿀 때 사용합니다.

복잡한 형태로 만들었지만 내용은 input에 들어가는 데이터의 길이를 똑같이 맞추고 데이터를 사용하기 쉽게 numpy 배열로 바꿔줍니다. LSTM AI모델 복잡한 형태로 만들었지만 내용은 input에 들어가는 데이터의 길이를 똑같이 맞추고 데이터를 사용하기 쉽게 numpy 배열로 바꿔줍니다. LSTM AI모델

모델은 input 데이터 크기를 갖는 입력과 각 숫자에서 할당된 값을 특정 값을 갖도록 Embedding 합니다. 3개의 LSTM 레이어를 거쳐 시계열 정보와 학습을 합니다. 마지막 Dense 레이어에서 도출된 값을 기준으로 3개의 container에서 확률을 계산합니다. softmax 함수는 정답값을 제외한 나머지 loss는 모두 0이 되며 1일 값으로는 log(y)의 loss로 계산됩니다. 즉, y=1일 때 loss는 -∞이 됩니다. 모형 학습 모델은 input 데이터 크기를 갖는 입력과 각 숫자에서 할당된 값을 특정 값을 갖도록 Embedding 합니다. 3개의 LSTM 레이어를 거쳐 시계열 정보와 학습을 합니다. 마지막 Dense 레이어에서 도출된 값을 기준으로 3개의 container에서 확률을 계산합니다. softmax 함수는 정답값을 제외한 나머지 loss는 모두 0이 되며 1일 값으로는 log(y)의 loss로 계산됩니다. 즉, y=1일 때 loss는 -∞이 됩니다. 모형 학습

학습을 진행합니다. 노트북으로 학습했기 때문에 속도는 느렸지만 GPU가 달린 데스크톱을 사용하면 한 단계에 1초 이하가 걸립니다. loss는 0.3까지 떨어졌는데 제 서버 컴퓨터로 진행했을 때 loss:0.02까지 1분도 안 걸렸어요. 결과 도출 학습을 진행합니다. 노트북으로 학습했기 때문에 속도는 느렸지만 GPU가 달린 데스크톱을 사용하면 한 단계에 1초 이하가 걸립니다. loss는 0.3까지 떨어졌는데 제 서버 컴퓨터로 진행했을 때 loss:0.02까지 1분도 안 걸렸어요. 결과 도출

원하는 text를 test_input에 넣고 실행하면 확률에 따른 결과값이 도출됩니다. 단, character Embedding이기 때문에 부족할 수 있으며, 필요하다면 단어 단위로 Embedding을 한 후에 사용할 수 있습니다. 원하는 text를 test_input에 넣고 실행하면 확률에 따른 결과값이 도출됩니다. 단, character Embedding이기 때문에 부족할 수 있으며, 필요하다면 단어 단위로 Embedding을 한 후에 사용할 수 있습니다.

error: Content is protected !!