DiabeloDEV commited on
Commit
c06d20e
verified
1 Parent(s): e428c76

Upload folder using huggingface_hub

Browse files
Files changed (1) hide show
  1. index.html +311 -1
index.html CHANGED
@@ -211,4 +211,314 @@ print(response)</code></pre>
211
  <p class="section-subtitle">Post臋puj zgodnie z instrukcjami, aby uruchomi膰 GLM-4.6</p>
212
  </div>
213
  <div class="tutorial-steps">
214
- <div class="
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
211
  <p class="section-subtitle">Post臋puj zgodnie z instrukcjami, aby uruchomi膰 GLM-4.6</p>
212
  </div>
213
  <div class="tutorial-steps">
214
+ <div class="step" data-step="1">
215
+ <div class="step-header">
216
+ <div class="step-number">
217
+ <span>1</span>
218
+ </div>
219
+ <div class="step-content">
220
+ <h3>Instalacja Python i Virtual Environment</h3>
221
+ <p>Pierwszym krokiem jest przygotowanie 艣rodowiska Python</p>
222
+ </div>
223
+ </div>
224
+ <div class="step-details">
225
+ <div class="code-block">
226
+ <div class="code-header">
227
+ <span>Terminal</span>
228
+ <button class="copy-btn" data-copy="install-python">
229
+ <i class="fas fa-copy"></i>
230
+ </button>
231
+ </div>
232
+ <pre><code class="language-bash" id="install-python"># Sprawd藕 wersj臋 Python
233
+ python --version
234
+
235
+ # Utw贸rz wirtualne 艣rodowisko
236
+ python -m venv glm-env
237
+
238
+ # Aktywuj 艣rodowisko (Windows)
239
+ glm-env\Scripts\activate
240
+
241
+ # Aktywuj 艣rodowisko (Linux/Mac)
242
+ source glm-env/bin/activate</code></pre>
243
+ </div>
244
+ </div>
245
+ </div>
246
+
247
+ <div class="step" data-step="2">
248
+ <div class="step-header">
249
+ <div class="step-number">
250
+ <span>2</span>
251
+ </div>
252
+ <div class="step-content">
253
+ <h3>Instalacja Bibliotek</h3>
254
+ <p>Zainstaluj niezb臋dne pakiety przez pip</p>
255
+ </div>
256
+ </div>
257
+ <div class="step-details">
258
+ <div class="code-block">
259
+ <div class="code-header">
260
+ <span>Terminal</span>
261
+ <button class="copy-btn" data-copy="install-deps">
262
+ <i class="fas fa-copy"></i>
263
+ </button>
264
+ </div>
265
+ <pre><code class="language-bash" id="install-deps"># Instalacja g艂贸wnych bibliotek
266
+ pip install torch torchvision torchaudio
267
+ pip install transformers
268
+ pip install accelerate
269
+ pip install bitsandbytes
270
+ pip install sentencepiece
271
+
272
+ # Instalacja dodatkowych narz臋dzi
273
+ pip install gradio
274
+ pip install streamlit</code></pre>
275
+ </div>
276
+ </div>
277
+ </div>
278
+
279
+ <div class="step" data-step="3">
280
+ <div class="step-header">
281
+ <div class="step-number">
282
+ <span>3</span>
283
+ </div>
284
+ <div class="step-content">
285
+ <h3>Pobranie Modelu</h3>
286
+ <p>Pobierz model GLM-4.6 z Hugging Face</p>
287
+ </div>
288
+ </div>
289
+ <div class="step-details">
290
+ <div class="code-block">
291
+ <div class="code-header">
292
+ <span>Python</span>
293
+ <button class="copy-btn" data-copy="download-model">
294
+ <i class="fas fa-copy"></i>
295
+ </button>
296
+ </div>
297
+ <pre><code class="language-python" id="download-model">from transformers import AutoTokenizer, AutoModelForCausalLM
298
+ import torch
299
+
300
+ # Konfiguracja modelu
301
+ model_name = "THUDM/glm-4-9b-chat"
302
+
303
+ # Pobranie tokenizer
304
+ tokenizer = AutoTokenizer.from_pretrained(
305
+ model_name,
306
+ trust_remote_code=True
307
+ )
308
+
309
+ # Pobranie modelu
310
+ model = AutoModelForCausalLM.from_pretrained(
311
+ model_name,
312
+ torch_dtype=torch.float16,
313
+ device_map="auto",
314
+ trust_remote_code=True
315
+ )</code></pre>
316
+ </div>
317
+ </div>
318
+ </div>
319
+
320
+ <div class="step" data-step="4">
321
+ <div class="step-header">
322
+ <div class="step-number">
323
+ <span>4</span>
324
+ </div>
325
+ <div class="step-content">
326
+ <h3>Konfiguracja i Uruchomienie</h3>
327
+ <p>Skonfiguruj parametry i uruchom model</p>
328
+ </div>
329
+ </div>
330
+ <div class="step-details">
331
+ <div class="code-block">
332
+ <div class="code-header">
333
+ <span>Python</span>
334
+ <button class="copy-btn" data-copy="run-model">
335
+ <i class="fas fa-copy"></i>
336
+ </button>
337
+ </div>
338
+ <pre><code class="language-python" id="run-model">def generate_response(prompt, max_length=512):
339
+ # Tokenizacja inputu
340
+ inputs = tokenizer(
341
+ prompt,
342
+ return_tensors="pt",
343
+ padding=True,
344
+ truncation=True
345
+ ).to(model.device)
346
+
347
+ # Generowanie odpowiedzi
348
+ with torch.no_grad():
349
+ outputs = model.generate(
350
+ **inputs,
351
+ max_length=max_length,
352
+ temperature=0.7,
353
+ top_p=0.9,
354
+ do_sample=True,
355
+ pad_token_id=tokenizer.eos_token_id
356
+ )
357
+
358
+ # Dekodowanie odpowiedzi
359
+ response = tokenizer.decode(
360
+ outputs[0],
361
+ skip_special_tokens=True
362
+ )
363
+ return response
364
+
365
+ # Testowanie
366
+ prompt = "Cze艣膰! Jak si臋 masz?"
367
+ response = generate_response(prompt)
368
+ print(response)</code></pre>
369
+ </div>
370
+ </div>
371
+ </div>
372
+
373
+ <div class="step" data-step="5">
374
+ <div class="step-header">
375
+ <div class="step-number">
376
+ <span>5</span>
377
+ </div>
378
+ <div class="step-content">
379
+ <h3>Tworzenie Interfejsu U偶ytkownika</h3>
380
+ <p>Stw贸rz prosty interfejs z Gradio</p>
381
+ </div>
382
+ </div>
383
+ <div class="step-details">
384
+ <div class="code-block">
385
+ <div class="code-header">
386
+ <span>Python</span>
387
+ <button class="copy-btn" data-copy="create-ui">
388
+ <i class="fas fa-copy"></i>
389
+ </button>
390
+ </div>
391
+ <pre><code class="language-python" id="create-ui">import gradio as gr
392
+
393
+ def chat_interface(message, history):
394
+ response = generate_response(message)
395
+ return response
396
+
397
+ # Tworzenie interfejsu Gradio
398
+ demo = gr.ChatInterface(
399
+ fn=chat_interface,
400
+ title="GLM-4.6 Chat",
401
+ description="Rozmawiaj z modelem GLM-4.6",
402
+ examples=[
403
+ ["Jak dzia艂a sztuczna inteligencja?"],
404
+ ["Napisz kr贸tki wiersz o wio艣nie"],
405
+ ["Wyja艣nij teori臋 wzgl臋dno艣ci prosto"]
406
+ ]
407
+ )
408
+
409
+ # Uruchomienie interfejsu
410
+ if __name__ == "__main__":
411
+ demo.launch(share=True)</code></pre>
412
+ </div>
413
+ </div>
414
+ </div>
415
+ </div>
416
+ </div>
417
+ </section>
418
+
419
+ <section id="examples" class="examples">
420
+ <div class="container">
421
+ <div class="section-header">
422
+ <h2 class="section-title">Przyk艂ady U偶ycia</h2>
423
+ <p class="section-subtitle">Zobrazowane przyk艂ady wykorzystania GLM-4.6</p>
424
+ </div>
425
+ <div class="examples-grid">
426
+ <div class="example-card">
427
+ <div class="example-header">
428
+ <i class="fas fa-comments"></i>
429
+ <h3>Chatbot</h3>
430
+ </div>
431
+ <div class="example-content">
432
+ <p>Tworzenie inteligentnego asystenta konwersacyjnego</p>
433
+ <div class="example-tags">
434
+ <span class="tag">NLP</span>
435
+ <span class="tag">Chat</span>
436
+ <span class="tag">AI</span>
437
+ </div>
438
+ </div>
439
+ </div>
440
+ <div class="example-card">
441
+ <div class="example-header">
442
+ <i class="fas fa-language"></i>
443
+ <h3>T艂umaczenia</h3>
444
+ </div>
445
+ <div class="example-content">
446
+ <p>T艂umaczenie tekstu mi臋dzy 10+ j臋zykami</p>
447
+ <div class="example-tags">
448
+ <span class="tag">Translate</span>
449
+ <span class="tag">Multi-lang</span>
450
+ </div>
451
+ </div>
452
+ </div>
453
+ <div class="example-card">
454
+ <div class="example-header">
455
+ <i class="fas fa-pen-fancy"></i>
456
+ <h3>Generowanie Tekstu</h3>
457
+ </div>
458
+ <div class="example-content">
459
+ <p>Tworzenie artyku艂贸w, emaili, i tre艣ci marketingowych</p>
460
+ <div class="example-tags">
461
+ <span class="tag">Content</span>
462
+ <span class="tag">Writing</span>
463
+ </div>
464
+ </div>
465
+ </div>
466
+ <div class="example-card">
467
+ <div class="example-header">
468
+ <i class="fas fa-code"></i>
469
+ <h3>Asystent Kodowania</h3>
470
+ </div>
471
+ <div class="example-content">
472
+ <p>Pomoc w pisaniu i debugowaniu kodu</p>
473
+ <div class="example-tags">
474
+ <span class="tag">Code</span>
475
+ <span class="tag">Dev</span>
476
+ </div>
477
+ </div>
478
+ </div>
479
+ </div>
480
+ </div>
481
+ </section>
482
+
483
+ <section id="troubleshooting" class="troubleshooting">
484
+ <div class="container">
485
+ <div class="section-header">
486
+ <h2 class="section-title">Troubleshooting</h2>
487
+ <p class="section-subtitle">Rozwi膮zanie najcz臋stszych problem贸w</p>
488
+ </div>
489
+ <div class="faq-list">
490
+ <div class="faq-item">
491
+ <div class="faq-question">
492
+ <h3>Brak wystarczaj膮cej pami臋ci VRAM</h3>
493
+ <i class="fas fa-chevron-down"></i>
494
+ </div>
495
+ <div class="faq-answer">
496
+ <p>Rozwi膮zania:</p>
497
+ <ul>
498
+ <li>U偶yj kwantyzacji 8-bitowej lub 4-bitowej</li>
499
+ <li>Zmniejsz batch size</li>
500
+ <li>U偶yj modelu w mniejszej wersji</li>
501
+ <li>Rozwa偶 u偶ycie CPU inference</li>
502
+ </ul>
503
+ <div class="code-snippet">
504
+ <pre><code class="language-python"># Kwantyzacja 8-bitowa
505
+ model = AutoModelForCausalLM.from_pretrained(
506
+ model_name,
507
+ load_in_8bit=True,
508
+ device_map="auto"
509
+ )</code></pre>
510
+ </div>
511
+ </div>
512
+ </div>
513
+
514
+ <div class="faq-item">
515
+ <div class="faq-question">
516
+ <h3>Wolne generowanie odpowiedzi</h3>
517
+ <i class="fas fa-chevron-down"></i>
518
+ </div>
519
+ <div class="faq-answer">
520
+ <p>Optymalizacje:</p>
521
+ <ul>
522
+ <li>U偶yj Flash Attention</li>
523
+ <li>Zwi臋ksz max_length tylko gdy konieczne</li>
524
+ <li>U