Web Analytics

TimeCapsuleLLM

⭐ 545 stars Thai by haykgrigo3

🌐 ภาษา

TimeCapsule LLM

โมเดลภาษาที่ฝึก ตั้งแต่เริ่มต้น โดยใช้ข้อมูลเฉพาะจากสถานที่และช่วงเวลาเพื่อลดอคติแบบสมัยใหม่ และจำลองเสียง คำศัพท์ และมุมมองโลกของยุคนั้น

ลองจินตนาการว่า ถ้าโมเดล AI ไม่ได้แค่แกล้งทำเป็นประวัติศาสตร์ แต่เป็นจริง ๆ

v0 และ v0.5 สร้างขึ้นโดยใช้ nanoGPT โดย Andrej Karpathy สคริปต์การฝึกหลักและสถาปัตยกรรมโมเดลเป็นผลงานของเขา

v1 สร้างขึ้นบน Phi 1.5 โดย Microsoft

ลิงก์ Hugging Face

พฤติกรรมของโมเดล & ข้อจำกัด

v0

ข้อความแรก ๆ แสดงให้เห็นว่าโมเดลตอบกลับด้วยภาษาและพฤติกรรมในยุค 1800 ตัวอย่าง: คำถาม: "Who art Henry?" และมันตอบกลับว่า "I know that man, I have did not a black, the storm."

ตัวอย่างผลลัพธ์ TimeLockLLM

v0.5

ปรับปรุงอย่างเห็นได้ชัดจาก v0

ตัวอย่างผลลัพธ์ TimeLockLLM

v1

เป็นโมเดลแรกที่สามารถจดจำและเชื่อมโยงเหตุการณ์ทางประวัติศาสตร์จริงกับบุคคลจริงในชุดข้อมูลได้

ตัวอย่าง: คำถาม: "It was the year of our Lord 1834"

ผลลัพธ์: "It was the year of our Lord 1834 and the streets of London were filled with protest and petition. The cause, as many re counted, was not bound in the way of private, but having taken up the same day in the day of Lord Palmerston, the public will receive a short statement of the difficulties under which the day of law has reached us. It is a matter of deep regret, that the present events in the history of the world are clear, and consequently will be'known. It is not true that the very men who first settled in the Gospel at Jerusalem should have so extensive and so interesting a record of the prosperity and prosperity"

แรก ๆ ฉันคิดว่าอาจจะมีการประท้วงเกิดขึ้นในปีเดียวกันโดยบังเอิญ แต่ลองดูนี่สิ: 1834protest

เหตุผลที่เรื่องนี้สำคัญ:

นี่เป็นตัวอย่างแรกที่โมเดลของฉันเชื่อมโยงปีเข้ากับทั้งเหตุการณ์ทางประวัติศาสตร์จริงและบุคคลจริงที่เกี่ยวข้องกับเหตุการณ์นั้น (Lord Palmerston) โมเดลก่อนหน้านี้ (v0 และ v0.5) สามารถเลียนแบบสไตล์การเขียนในศตวรรษที่ 19 ได้ แต่จะจินตนาการเหตุการณ์ บุคคล และข้อเท็จจริงเสมอ สิ่งนี้แสดงให้เห็นว่าโมเดลเริ่มจดจำสิ่งต่าง ๆ จากชุดข้อมูลแล้ว

แผนงานในอนาคต

วิธีการใช้งาน

โครงการนี้เน้นการรวบรวมข้อมูลประวัติศาสตร์ เตรียมข้อมูลสำหรับการฝึกฝน และสร้างตัวแบ่งคำ ผมจะไม่ครอบคลุมกระบวนการฝึกฝน LLM ทั้งหมด สำหรับเรื่องนี้โปรดดู nanoGPT โดย Andrej Karpathy

ขั้นตอนที่ 1: รวบรวมและเตรียมข้อความประวัติศาสตร์

ขั้นตอนที่ 2: สร้างตัวแบ่งคำแบบกำหนดเอง

ขั้นตอนที่ 3: ฝึกฝนโมเดลของคุณ

คำถามที่พบบ่อย

Selective Temporal Training คืออะไร?

Selective Temporal Training (STT) เป็นวิธีการเรียนรู้ของเครื่องที่มีการคัดกรองข้อมูลฝึกฝนให้ตรงกับช่วงเวลาทางประวัติศาสตร์ที่เฉพาะเจาะจง เพื่อสร้างแบบจำลองภาษาและความรู้ของยุคนั้นโดยปราศจากอิทธิพลจากแนวคิดสมัยใหม่ ตัวอย่างเช่น โมเดลปัจจุบันที่ผมมี (v0.5) ได้รับการฝึกฝนจากข้อมูลระหว่างปี 1800-1875 เท่านั้น ไม่ได้ปรับแต่งแต่ฝึกฝนจากศูนย์ ส่งผลให้ผลลัพธ์สะท้อนรูปแบบภาษาและบริบททางประวัติศาสตร์ของช่วงเวลานั้น

ทำไมไม่ใช้การปรับแต่งหรือ LoRA?

สำหรับโครงการนี้ผมต้องการสร้างโมเดลภาษาโดยปราศจากอคติสมัยใหม่ หากผมปรับแต่งโมเดลเช่น GPT-2 มันได้รับการฝึกฝนมาก่อนแล้วและข้อมูลนั้นจะไม่หายไป หากฝึกฝนจากศูนย์ โมเดลภาษาจะไม่แกล้งทำเป็นเก่าแต่มันจะเป็นเช่นนั้นจริงๆ เป้าหมายของโครงการนี้ในตอนนี้คือสร้างโมเดลที่สามารถให้เหตุผลโดยใช้ความรู้จากหนังสือลอนดอนที่ตีพิมพ์ระหว่างปี 1800 ถึง 1875 เท่านั้น

ใช้ข้อมูลประเภทใดในการฝึกฝน?

ผมใช้หนังสือ เอกสารทางกฎหมาย หนังสือพิมพ์ และงานเขียนอื่น ๆ จากลอนดอนช่วงปี 1800–1875 รายการที่ผมแนบไว้ (สำหรับ v0) มีประมาณ 200 รายการ แต่สำหรับการเทรนครั้งแรกผมใช้เพียง 50 ไฟล์ ประมาณ ~187 MB คุณสามารถดูรายการเอกสารได้ที่: https://github.com/haykgrigo3/TimeCapsuleLLM/blob/main/Copy%20of%20London%20Documents%20for%20Time%20Capsule%20LLM.txt

ขนาดของชุดข้อมูล: v0: ~187MB v0.5: ~435MB v1: ~6.25GB

โมเดลมีขนาดเท่าไร ?

V0: 16M พารามิเตอร์

V0.5 123M พารามิเตอร์

V1: 700M พารามิเตอร์

สเปกการเทรน ?

V0/V0.5

GPU: Geforce rtx 4060 CPU: i5-13400F Ram: 16GB DDR5.

V1

GPU: A100 เช่าใช้บริการ

--- Tranlated By Open Ai Tx | Last indexed: 2025-09-30 ---