采集到的數據需經過清洗和預處理,才能用於後續的分析。
數據預處理的步驟包括:
數據清洗:刪除重複的記錄,校正錯誤的數據格式,填補缺失值。
數據整合:將來自不同來源的數據整合到一個統一的格式和數據庫中,如表3.1所示,以便進
為了使後續知識庫生成更加準確與完善,對文獻具體內容進行篩選。例如部分文獻中並未提到
所用數據,而是指出所用數據庫鏈接,如圖3.3所示,在對該篇文獻進行解析後,數據部分就是欠
缺的,最終構建的知識庫就不完整,在調用大模型回答相關問題時,極大概率產生幻覺。因此為了
構建更為準確的專業模型,對爬取下來的507&n
boundaries)、各單元過程或生產環節的投入input),產出output),數據),以及數據的時間、地點、獲取方法、技術細節的文獻作為最後應用的數據。核對內容
後的文獻數據集共98篇英文文獻。
數據預處理
unstructured庫是一個強大的工具,專為處理非結構化數據設計,具體流程如圖3.7所示,
如從文本文檔、pdf文件或網頁中提取數據。它支持多種數據提取方法,包括正則表達式匹配、自
然語言處理np)技術等。
數據預處理步驟如下:
步驟一:數據清洗
去除雜質:從文本中去除無關的字符,如特殊符號、空白行等。
格式統一:將所有文本統一為相同的編碼格式,通常為utf8,以避免編碼錯誤。
語言標準化:統一不同術語的使用,例如將所有&34;ptaic&34;統一替換為&34;pv&34;,確保術語的
一致性。
步驟二:信息提取
關鍵信息標識:標識文獻中的關鍵信息,如研究方法、主要結論、實驗條件等。
數據分類:根據信息類型將數據分類,如作者、出版年份、研究結果等。
步驟三:結構化轉換
結構化處理:將信息精細化拆解與清洗,將各種元素進行轉換,形成結構化數據形式,拆分成
非結構化文本數據通常非常稀疏,即包含大量的詞彙但每個文檔隻使用其中的一小部分。而結
構化數據則可以通過合並相似信息來降低數據的稀疏性,這有助於生成更加緊湊和有效的嵌入向
量。
結構化數據可以實現更高效的特征提取。結構化數據通常已經按照特定的模式或結構進行了組
織,這使得我們可以更加高效地從中提取有用的特征如標題、作者、摘要、關鍵詞等)。這些特
征可以作為後續的輸入,幫助生成具有更強區分性和泛化能力的嵌入向量。結構化數據
中的元素如主題、類彆、屬性等)通常具有明確的含義,這些含義可以在過程中被保
留下來。因此,基於結構化數據的嵌入向量往往具有更強的解釋性,有助於我們更好地理解模型的
預測結果和內部機製。
請記住本書首發域名:.biqivge.