• Title, Summary, Keyword: VEC

Search Result 177, Processing Time 0.035 seconds

Electromagnetic Vector Fields Simulation with Mathematica (전자기 벡터장 시각화를 위한 Mathematica 시뮬레이션)

  • Choi, Yong-Dae;Yun, Hee-Joong
    • Journal of the Korean Vacuum Society
    • /
    • v.21 no.2
    • /
    • pp.69-77
    • /
    • 2012
  • Visualization of the electromagnetic vector fields are presented and examined with Mathematica. Vector fields may be used to represent a great of many physical quantities in various area of physics, including electromagnetism with vector differential operators. Because they deal with abstract, three-dimensional fields that are some times very difficult to visualize, electromagnetism can be conceptually rather difficult. Visual representation of such an abstract vector fields is invaluable to student or researchers working in this field and also helps teaching electromagnetism to physics or engineering students. Mathematica provides a wider range of graphical tools including plot of vector fields and vector analysis, which can be applied to visualization of electromagnetic system. We have visualized the most fundamental concepts of the electromagnetic vector $\vec{E}=-\vec{\nabla}_{\varphi}$, $\vec{D}={\epsilon}\vec{E}$, $\vec{\nabla}{\times}\vec{A}$, $\vec{B}={\mu}\vec{H}$, $\vec{B}={\mu}_0(\vec{H}+\vec{M})$, which are confirmed with vector calculations and valid graphically with some presentations.

The Sentence Similarity Measure Using Deep-Learning and Char2Vec (딥러닝과 Char2Vec을 이용한 문장 유사도 판별)

  • Lim, Geun-Young;Cho, Young-Bok
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.22 no.10
    • /
    • pp.1300-1306
    • /
    • 2018
  • The purpose of this study is to see possibility of Char2Vec as alternative of Word2Vec that most famous word embedding model in Sentence Similarity Measure Problem by Deep-Learning. In experiment, we used the Siamese Ma-LSTM recurrent neural network architecture for measure similarity two random sentences. Siamese Ma-LSTM model was implemented with tensorflow. We train each model with 200 epoch on gpu environment and it took about 20 hours. Then we compared Word2Vec based model training result with Char2Vec based model training result. as a result, model of based with Char2Vec that initialized random weight record 75.1% validation dataset accuracy and model of based with Word2Vec that pretrained with 3 million words and phrase record 71.6% validation dataset accuracy. so Char2Vec is suitable alternate of Word2Vec to optimize high system memory requirements problem.

A Study on Categorization of Korean News Article based on CNN using Doc2Vec (Doc2Vec을 활용한 CNN기반 한국어 신문기사 분류에 관한 연구)

  • Kim, Do-Woo;Koo, Myoung-Wan
    • 한국어정보학회:학술대회논문집
    • /
    • /
    • pp.67-71
    • /
    • 2016
  • 본 논문에서는 word2vec과 doc2vec을 함께 CNN에 적용한 문서 분류 방안을 제안한다. 먼저 어절, 형태소, WPM(Word Piece Model)을 각각 사용하여 생성한 토큰(token)으로 doc2vec을 활용하여 문서를 vector로 표현한 후, 초보적인 문서 분류에 적용한 결과 WPM이 분류율 79.5%가 되어 3가지 방법 중 최고 성능을 보였다. 다음으로 CNN의 입력자질로써 WPM을 이용하여 생성한 토큰을 활용한 word2vec을 범주 10개의 문서 분류에 사용한 실험과 doc2vec을 함께 사용한 실험을 수행하였다. 실험 결과 word2vec만을 활용하였을 때 86.89%의 분류율을 얻었고, doc2vec을 함께 적용한 결과 89.51%의 분류율을 얻었다. 따라서 제안한 모델을 통해서 분류율이 2.62% 향상됨을 확인하였다.

  • PDF

A Study on Categorization of Korean News Article based on CNN using Doc2Vec (Doc2Vec을 활용한 CNN기반 한국어 신문기사 분류에 관한 연구)

  • Kim, Do-Woo;Koo, Myoung-Wan
    • Annual Conference on Human and Language Technology
    • /
    • /
    • pp.67-71
    • /
    • 2016
  • 본 논문에서는 word2vec과 doc2vec을 함께 CNN에 적용한 문서 분류 방안을 제안한다. 먼저 어절, 형태소, WPM(Word Piece Model)을 각각 사용하여 생성한 토큰(token)으로 doc2vec을 활용하여 문서를 vector로 표현한 후, 초보적인 문서 분류에 적용한 결과 WPM이 분류율 79.5%가 되어 3가지 방법 중 최고 성능을 보였다. 다음으로 CNN의 입력자질로써 WPM을 이용하여 생성한 토큰을 활용한 word2vec을 범주 10개의 문서 분류에 사용한 실험과 doc2vec을 함께 사용한 실험을 수행하였다. 실험 결과 word2vec만을 활용하였을 때 86.89%의 분류율을 얻었고, doc2vec을 함께 적용한 결과 89.51%의 분류율을 얻었다. 따라서 제안한 모델을 통해서 분류율이 2.62% 향상됨을 확인하였다.

  • PDF

Implementation of Korean Sentence Similarity using Sent2Vec Sentence Embedding (Sent2Vec 문장 임베딩을 통한 한국어 유사 문장 판별 구현)

  • Park, Sang-Kil;Shin, MyeongCheol
    • Annual Conference on Human and Language Technology
    • /
    • /
    • pp.541-545
    • /
    • 2018
  • 본 논문에서는 Sent2Vec을 이용한 문장 임베딩으로 구현한 유사 문장 판별 시스템을 제안한다. 또한 한국어 특성에 맞게 모델을 개선하여 성능을 향상시키는 방법을 소개한다. 고성능 라이브러리 구현과 제품화 가능한 수준의 완성도 높은 구현을 보였으며, 자체 구축한 평가셋으로 한국어 특성을 반영한 모델에 대한 P@1 평가 결과 Word2Vec CBOW에 비해 9.25%, Sent2Vec에 비해 1.93% 더 높은 성능을 보였다.

  • PDF

Conditional Feynman Integrals involving indefinite quadratic form

  • Chung, Dong-Myung;Kang, Si-Ho
    • Journal of the Korean Mathematical Society
    • /
    • v.31 no.3
    • /
    • pp.521-537
    • /
    • 1994
  • We consider the Schrodinger equation of quantum mechanics $$ i\hbar\frac{\partial t}{\partial}\Gamma(t, \vec{\eta}) = -\frac{2m}{\hbar}\Delta(t, \vec{\eta}) + V(\vec{\eta}\Gamma(t, \vec{\eta}) (1.1) $$ $$ \Gamma(0, \vec{\eta}) = \psi(\vec{\eta}), \vec{\eta} \in R^n $$ where $\Delta$ is the Laplacian on $R^n$, $\hbar$ is Plank's constant and V is a suitable potential.

  • PDF

Three-dimensinal electro static field calculation of thin film dielectric substance using boundary integral equation method. (경계 적분법을 이용한 박막유전체의 3차원 정전장 해석)

  • Kim, Yong-Il;HwangBo, Hoon;Choi, Hong-Soon;Park, Il-Han
    • Proceedings of the KIEE Conference
    • /
    • /
    • pp.1123-1125
    • /
    • 2005
  • 본 논문에서는 3차원 공간에 종이와 같은 박막형 유전체가 있을 때 임의의 점에서의 전계$\vec{E}$를 구하기 위해 유전체의 분극벡터$\vec{P}$를 미지수로 하는 경계적분법(Boundary integral method)을 사용한다. 경계적분법의 사용으로 FEM 3차원 해석에 있어서의 요소분할의 난이성 및 계수 행렬의 대형화로 인한 컴퓨터 수행능력의 한계를 극복할 수 있다. 여기서 분극벡터$\vec{P}$를 구하기 위해 전하에서의 전계${ves{E}}_s$에 의한 유전체내의 분극벡터$\vec{P}$를 수식으로 정리하여 $[\vec{K}][\vec{P}]=[\vec{E}]$ 형태의 $\vec{P}$를 미지수로 하는 system matrix를 구성한다. 위의 system matrix 통해 구해진 분극벡터 $\vec{P}$를 이용하여 유전체 밖의 한 점에서의 전계세기 ${\vec{E}}_m$를 구한 후 우리가 구하고자 하는 전계$\vec{E}$를 계산한다.

  • PDF

Categorization of Korean News Articles Based on Convolutional Neural Network Using Doc2Vec and Word2Vec (Doc2Vec과 Word2Vec을 활용한 Convolutional Neural Network 기반 한국어 신문 기사 분류)

  • Kim, Dowoo;Koo, Myoung-Wan
    • Journal of KIISE
    • /
    • v.44 no.7
    • /
    • pp.742-747
    • /
    • 2017
  • In this paper, we propose a novel approach to improve the performance of the Convolutional Neural Network(CNN) word embedding model on top of word2vec with the result of performing like doc2vec in conducting a document classification task. The Word Piece Model(WPM) is empirically proven to outperform other tokenization methods such as the phrase unit, a part-of-speech tagger with substantial experimental evidence (classification rate: 79.5%). Further, we conducted an experiment to classify ten categories of news articles written in Korean by feeding words and document vectors generated by an application of WPM to the baseline and the proposed model. From the results of the experiment, we report the model we proposed showed a higher classification rate (89.88%) than its counterpart model (86.89%), achieving a 22.80% improvement. Throughout this research, it is demonstrated that applying doc2vec in the document classification task yields more effective results because doc2vec generates similar document vector representation for documents belonging to the same category.

Performance Analysis of Opinion Mining using Word2vec (Word2vec을 이용한 오피니언 마이닝 성과분석 연구)

  • Eo, Kyun Sun;Lee, Kun Chang
    • Proceedings of the Korea Contents Association Conference
    • /
    • /
    • pp.7-8
    • /
    • 2018
  • This study proposes an analysis of the Word2vec-based machine learning classifiers for the sake of opinion mining tasks. As a bench-marking method, BOW (Bag-of-Words) was adopted. On the basis of utilizing the Word2vec and BOW as feature extraction methods, we applied Laptop and Restaurant dataset to LR, DT, SVM, RF classifiers. The results showed that the Word2vec feature extraction yields more improved performance.

  • PDF

A DIFFERENCE EQUATION FOR MULTIPLE KRAVCHUK POLYNOMIALS

  • Lee, Dong-Won
    • Journal of the Korean Mathematical Society
    • /
    • v.44 no.6
    • /
    • pp.1429-1440
    • /
    • 2007
  • Let ${K^{(\vec{p};N)}_{\vec{n}}(x)}$ be a multiple Kravchuk polynomial with respect to r discrete Kravchuk weights. We first find a lowering operator for multiple Kravchuk polynomials ${K^{(\vec{p};N)}_{\vec{n}}(x)}$ in which the orthogonalizing weights are not involved. Combining the lowering operator and the raising operator by Rodrigues# formula, we find a (r+1)-th order difference equation which has the multiple Kravchuk polynomials ${K^{(\vec{p};N)}_{\vec{n}}(x)}$ as solutions. Lastly we give an explicit difference equation for ${K^{(\vec{p};N)}_{\vec{n}}(x)}$ for the case of r=2.