|
|
第1行: |
第1行: |
− | QA Research:
| |
− | ProMe: 对我们有帮助的地方有:
| |
− | 1. Question classification 其中需要注意的是question type的定义
| |
− | 2. Key-Word extraction
| |
− | Leveraging social Q&A collections for improving complex question answering: 对我们有帮助的地方有:
| |
− | 1. Question type classification.
| |
− | 2. 依据 question type classification 对 answer 做 re-score.
| |
| | | |
− | QA Develop:
| |
− | 1. Mean value by using word2vec training question treat as baseline.
| |
− | 2. 先做分类,再做搜索。
| |
− | 3. Question 分类 ==> Lucene 40 best (加入 word2vec 策略, 加入 translation 策略(ps:邢超完成)) ==> content 分类 (lasso 精确匹配)
| |
− | 4. 爬去百度知道的数据
| |
| | | |
− | 晓曦:
| |
− | word2vec train 字的vector ==> predict 实体vector (领域可以是公司名称识别)
| |
− | 王老师提供的思路:
| |
− | 词的vector 作为baseline
| |
− | 字的vector <=> 词的vector
| |
− | 转化为
| |
− | 选几组词作为测试,看看有没有什么相对靠谱一些的转化思路。
| |
− | 建议:这周能够使用translation model的结果
| |
| | | |
− | Knowledge Vector:
| + | recorded by Rong Liu |
− | learning cost fuction ==> Link from wiki
| + | |
− | ==> 正文的over lap程度(相似度)
| + | |
− | 思路:可以用我们之前做过的text vector 辅助 计算相似度
| + | |
− | ==> 已经结构化好的模块,比如说wiki中的上下位关系等
| + | |
− | Link 的长度以及深度
| + | |
− | 子类在某一程度上聚集在父类的周围
| + | |
− | | + | |
− | | + | |
− | recorded by Chao Xing | + | |