Web Analytics

TimeCapsuleLLM

⭐ 1248 stars Polish by haykgrigo3

🌐 Język

TimeCapsule LLM

Model językowy wytrenowany od podstaw wyłącznie na danych z określonych miejsc i epok, aby ograniczyć współczesne uprzedzenia i odwzorować język, słownictwo oraz światopogląd danej ery.

Wyobraź sobie, że model AI nie tylko udaje historyczny, ale faktycznie nim jest.

Wersje v0 oraz v0.5 zbudowane na nanoGPT autorstwa Andreja Karpathy'ego Podstawowe skrypty treningowe i architektura modelu to jego dzieło.

v1 zbudowany na Phi 1.5 firmy Microsoft

v2 zbudowany na llamaforcausallm

Link do Hugging Face

Zachowanie modelu i ograniczenia

v0

Wczesne promptowania pokazują, że model odpowiada językiem i zachowaniem z XIX wieku. Przykład: Prompt: "Who art Henry?" a odpowiedź: "I know that man, I have did not a black, the storm."

Przykładowe wyjście TimeLockLLM

v0.5

Znaczna poprawa w stosunku do v0.

Przykładowe wyjście TimeLockLLM

v1

Pierwszy model, który przypomina sobie i łączy prawdziwe wydarzenie historyczne z rzeczywistą postacią z zestawu danych.

Przykład: Prompt: "It was the year of our Lord 1834"

Odpowiedź: "It was the year of our Lord 1834 and the streets of London were filled with protest and petition. The cause, as many re counted, was not bound in the way of private, but having taken up the same day in the day of Lord Palmerston, the public will receive a short statement of the difficulties under which the day of law has reached us. It is a matter of deep regret, that the present events in the history of the world are clear, and consequently will be'known. It is not true that the very men who first settled in the Gospel at Jerusalem should have so extensive and so interesting a record of the prosperity and prosperity"

Na początku zakładałem, że protest mógł przypadkowo mieć miejsce w tym samym roku, ale spójrz na to: 1834protest

v2mini-eval1

Wytrenowano na próbce 15 GB z 90 GB zbioru danych v2. Model wytrenowany tylko do 10 000 kroków.

Wystąpił problem z tokenizacją, który powoduje, że wynik wygląda tak:

ZAPYTANIE: Kim jest Charles Dickens?

W ho is Charles D ic ens ? D oes that work more of h ise x cell ent st ir ring , in his pl ays , int he G reat C omp any 's f arm ? What I have y et to qu ote from J ack P ick ett ? D oy oun ot know th att hey were as pe cies of g all oping , ors aw ing oft heir bre asts , or what w ast ob ed one about the t im ew hen J acks on was looking ont hew ind ow ? What ist hes uccess of an English man , and which h isson has not be end is cover ing t ome , where by to acc omp lish such a we ight ? D idy ou ever m ake ap ass age int othe old road way , ort o an anch or - b ree ze att he foot of our boat , which you m ust le ave us ? The fact is , that whe ther the wind would rise up from the pl ain on S atur day night orn o ont ide , ort ill then orth , or other wise , wes hall be com pelled t od esc ribe af orm idable bar rier , with t hes ame e ffect s ast he p resent . In th iss itu ation , at le ast , itis not to omuch t os ay that we have le ft that room . I bel ieve there are three c op ies int he " F ive H undred - fold ," to bere fer red to , ast he first n umber of our read ers wh ow is ht

Poprawione:

„Kim jest Charles Dickens? Czy to dzieło bardziej jego doskonałego poruszania, w jego sztukach, na farmie Wielkiej Spółki? Co mam jeszcze zacytować od Jacka Picketta? Czy nie wiesz, że byli gatunkiem galopujących, albo piłujących swoje piersi, albo co należało zrobić w czasie, gdy Jackson patrzył przez okno? Czym jest sukces Anglika i co jego syn nie odkrył przede mną, aby osiągnąć taki ciężar? Czy kiedykolwiek przebyłeś starą drogę, albo do bryzy kotwicznej u stóp naszej łodzi, którą musisz nas opuścić? Faktem jest, że czy wiatr powstanie z równiny w sobotnią noc, czy w południe, czy aż do północy, czy inaczej, będziemy zmuszeni opisać potężną barierę, z tymi samymi skutkami co obecnie. W tej sytuacji, przynajmniej, nie jest przesadą powiedzieć, że opuściliśmy tamten pokój. Wierzę, że są trzy egzemplarze w „Pięćsetkrotnym”, do których można się odwołać, jako pierwszy numer naszych czytelników, którzy chcą t[o]...”

v2mini-eval2

Wytrenowany na tej samej próbce 15GB użytej do trenowania eval1. Model ponownie wytrenowany tylko do 10K kroków.

PROMPT: Charles Darwin

Charles Darwin ECCEMACY. Proszę pana, — Następujący przypadek jest dla mnie interesujący: — Byłem w Londynie przez dwa tygodnie i bardzo dotknął mnie atak reumatyzmu. Pierwszy atak reumatyzmu nastąpił tydzień przed tym, jak się z panem zobaczyłem, drugi gdy się spotkaliśmy, trzeci gdy się zobaczyliśmy, i trzeci w tym samym czasie. Drugi atak dny nie był jednak związany z objawami gorączkowymi, lecz towarzyszył mu zwiększony przepływ moczu i obfitszy jego wypływ. Trzeci atak nastąpił godzinę po naszym spotkaniu i zakończył się powrotem napadu dny oraz szybszym nawrotem dny. Czwarty atak również był związany z gorączką, ale nie zawsze z objawami gorączkowymi. Trzeci atak dny był dwa tygodnie po tym, jak był pan chory, a czwarty nastąpił po napadzie dny. Czwarty atak nastąpił dwa tygodnie po tym, jak został pan zaatakowany, i towarzyszyło mu uczucie

Zbiory danych

v2

### Statystyki uprzedzeń Uprzedzenie zaimkowe

Uprzedzenie geograficzne

Uprzedzenie czasowe

Więcej informacji znajdziesz w raporcie o uprzedzeniach v2.

Jak używać

Ten projekt koncentruje się głównie na gromadzeniu danych historycznych, przygotowaniu ich do treningu i budowie tokenizera. Nie będę omawiać pełnego procesu treningu LLM, w tym celu odsyłam do nanoGPT autorstwa Andreja Karpathy.

Krok 1: Zbierz i przygotuj historyczne teksty

Krok 2: Zbuduj własny tokenizator

Krok 3: Wytrenuj swój model

FAQ

Czym jest Selektywne Szkolenie Czasowe?

Selektywne Szkolenie Czasowe (STT) to metodologia uczenia maszynowego, w której wszystkie dane treningowe są starannie wyselekcjonowane tak, by pochodziły z określonego okresu historycznego. Ma to na celu modelowanie języka i wiedzy tamtej epoki bez wpływu współczesnych koncepcji. Przykładowo, obecny model (v0.5) został wytrenowany wyłącznie na danych z lat 1800-1875, nie został dostrojony, lecz wytrenowany od zera, dzięki czemu jego wyniki odzwierciedlają styl językowy i kontekst historyczny tamtego czasu.

Dlaczego nie użyć po prostu fine-tuningu lub LoRA?

W tym projekcie próbuję stworzyć model językowy wolny od współczesnych uprzedzeń. Jeśli zrobię fine-tuning np. GPT-2, to już jest wstępnie wytrenowany i tej wiedzy nie da się usunąć. Jeśli wytrenuję od zera, model językowy nie będzie udawał starego – po prostu taki będzie. Celem projektu na teraz jest stworzenie czegoś, co potrafi rozumować wyłącznie na podstawie wiedzy z londyńskich książek wydanych między 1800 a 1875 rokiem.

Na jakich danych trenowałeś model?

Używam książek, dokumentów prawnych, gazet i innych tekstów z Londynu z lat 1800–1875. Lista, którą podlinkowałem (dla v0), zawiera około 200 pozycji, ale do pierwszego treningu użyłem tylko 50 plików o łącznej wielkości ~187 MB. Listę dokumentów możesz zobaczyć tutaj: https://github.com/haykgrigo3/TimeCapsuleLLM/blob/main/Copy%20of%20London%20Documents%20for%20Time%20Capsule%20LLM.txt

Rozmiary zbiorów danych:

Jak duże są modele?

v0: 16M parametrów

v0.5 123M parametrów

v1: 700M Parameters

v2mini-eval1: 300M Parameters

Training Specs ?

v0/v0.5

GPU: Geforce rtx 4060 CPU: i5-13400F Ram: 16GB DDR5.

v1

GPU: A100 SXM rented

v2mini-eval1

GPU: A100 SXM rented

--- Tranlated By Open Ai Tx | Last indexed: 2026-01-13 ---