Dataset Viewer
Auto-converted to Parquet Duplicate
words
stringlengths
1
4
postags
stringclasses
13 values
たち
接尾辞
動詞
接尾辞
なり
動詞
ごと
接尾辞
ぶり
接尾辞
その
連体詞
この
連体詞
ある
動詞
こと
名詞
もの
名詞
ため
名詞
とき
名詞
うち
名詞
まま
名詞
そう
副詞
それぞれ
名詞
ほか
名詞
より
助詞
あれ
動詞
なら
助動詞
接尾辞
動詞
動詞
動詞
名詞
動詞
助動詞
感動詞
助動詞
名詞
感動詞
動詞
あっ
動詞
とも
名詞
かつて
副詞
おり
動詞
ほとんど
名詞
よう
形状詞
ところ
名詞
できる
動詞
ほぼ
副詞
助詞
助詞
助詞
助詞
助詞
助詞
助詞
助動詞
動詞
助詞
助詞
ます
助動詞
 
空白
助動詞
です
助動詞
助動詞
助動詞
いる
動詞
する
動詞
助詞
動詞
接頭辞
から
助詞
まし
助動詞
助動詞
ない
助動詞
動詞
いう
動詞
ある
動詞
助動詞
あり
動詞
助詞
ませ
助動詞
助動詞
なっ
動詞
接頭辞
助詞
など
助詞
でき
動詞
なり
動詞
なる
動詞
まで
助詞
助詞
それ
代名詞
たい
助動詞
助詞
これ
代名詞
れる
助動詞
だけ
助詞
でしょう
助動詞
たら
助動詞
たり
助詞
られ
助動詞
助詞
助詞
また
接続詞
助動詞
でし
助動詞
End of preview. Expand in Data Studio

Japanese Stopwords for nagisa

This dataset is the Japanese stopwords list built into nagisa (v0.2.12+). It is published here on Hugging Face for easy access and reproducibility.

Overview

Language Japanese
Size 147 words
Source CC-100, Wikipedia
License MIT

Dataset Description

This dataset contains 147 frequently used Japanese words extracted from large-scale corpora. Each word is annotated with its part-of-speech (POS) tag according to nagisa's tokenization rules.

Since nagisa v0.2.12, this stopwords list is included by default and can be accessed directly via nagisa.stopwords. The list was expanded from 100 to 147 words, with additional POS categories (代名詞, 接続詞) to improve coverage.

The stopwords are constructed from the following sources:

Usage

Using with nagisa (Recommended)

Since nagisa v0.2.12, stopwords are built-in. No additional installation is required.

import nagisa

# Tokenize text
text = "日本語のストップワードを簡単に利用できます。"
tokens = nagisa.tagging(text)
print(tokens.words)
# ['日本', '語', 'の', 'ストップ', 'ワード', 'を', '簡単', 'に', '利用', 'でき', 'ます', '。']

# Filter stopwords
words = [word for word in tokens.words if word not in nagisa.stopwords]
print(words)
# ['日本', '語', 'ストップ', 'ワード', '簡単', '利用', '。']

Using with Hugging Face Datasets

pip install datasets

This dataset requires datasets >= 2.10.0.

from datasets import load_dataset

dataset = load_dataset("taishi-i/nagisa_stopwords")

# Get stopwords
words = dataset["nagisa_stopwords"]["words"]

# Get the part-of-speech tags
postags = dataset["nagisa_stopwords"]["postags"]

Example: Filtering Stopwords from Text

import nagisa
from datasets import load_dataset

# Load stopwords
dataset = load_dataset("taishi-i/nagisa_stopwords")
stopwords = set(dataset["nagisa_stopwords"]["words"])

# Tokenize and filter
text = "東京で美味しいラーメンを食べました"
tokens = nagisa.tagging(text)
print(tokens.words)
# ['東京', 'で', '美味しい', 'ラーメン', 'を', '食べ', 'まし', 'た']

filtered_words = [word for word in tokens.words if word not in stopwords]
print(filtered_words)
# ['東京', '美味しい', 'ラーメン', '食べ']

Data Fields

Field Type Description
words string Japanese word or character
postags string Part-of-speech tag in Japanese

Part-of-Speech Tags

The dataset includes the following POS tags:

POS Tag English Count
助動詞 Auxiliary Verb 37
助詞 Particle 35
動詞 Verb 24
名詞 Noun 13
代名詞 Pronoun 13
接続詞 Conjunction 9
接尾辞 Suffix 5
副詞 Adverb 3
接頭辞 Prefix 2
連体詞 Adnominal 2
感動詞 Interjection 2
形状詞 Adjectival Noun 1
空白 Whitespace 1

Sample Data

words postags
助詞
助詞
助詞
助詞
助詞
助詞
助詞
助動詞
動詞
助詞

Use Cases

  • Text preprocessing: Remove common words before text analysis
  • Feature extraction: Reduce noise in bag-of-words or TF-IDF representations
  • Search optimization: Filter out stopwords from search queries
  • Text classification: Improve model performance by removing non-informative words

Related Resources

Citation

If you use this dataset, please cite:

@misc{nagisa_stopwords,
  author = {Taishi Ikeda},
  title = {Japanese Stopwords for nagisa},
  year = {2023},
  publisher = {Hugging Face},
  url = {https://huggingface.co/datasets/taishi-i/nagisa_stopwords}
}
Downloads last month
44