mirror of
https://github.com/HackTricks-wiki/hacktricks.git
synced 2025-10-10 18:36:50 +00:00
Translated ['src/AI/README.md'] to uk
This commit is contained in:
parent
7097a22a1a
commit
7ef8058c3c
@ -22,12 +22,12 @@
|
|||||||
./AI-Deep-Learning.md
|
./AI-Deep-Learning.md
|
||||||
{{#endref}}
|
{{#endref}}
|
||||||
|
|
||||||
### Архітектура LLM
|
### Архітектура LLMs
|
||||||
|
|
||||||
На наступній сторінці ви знайдете основи кожного компонента для побудови базового LLM за допомогою трансформерів:
|
На наступній сторінці ви знайдете основи кожного компонента для побудови базового LLM за допомогою трансформерів:
|
||||||
|
|
||||||
{{#ref}}
|
{{#ref}}
|
||||||
llm-architecture/README.md
|
AI-llm-architecture/README.md
|
||||||
{{#endref}}
|
{{#endref}}
|
||||||
|
|
||||||
## Безпека AI
|
## Безпека AI
|
||||||
@ -42,7 +42,7 @@ AI-Risk-Frameworks.md
|
|||||||
|
|
||||||
### Безпека запитів AI
|
### Безпека запитів AI
|
||||||
|
|
||||||
LLMs зробили використання AI вибуховим в останні роки, але вони не ідеальні і можуть бути обмануті ворожими запитами. Це дуже важлива тема для розуміння, як безпечно використовувати AI і як на нього атакувати:
|
LLMs сприяли вибуху використання AI в останні роки, але вони не ідеальні і можуть бути обмануті ворожими запитами. Це дуже важлива тема для розуміння, як безпечно використовувати AI і як на нього атакувати:
|
||||||
|
|
||||||
{{#ref}}
|
{{#ref}}
|
||||||
AI-Prompts.md
|
AI-Prompts.md
|
||||||
|
Loading…
x
Reference in New Issue
Block a user