[Intum Dev](https://intum.dev.md) / [Modele AI](https://intum.dev/modele-ai.md)

# [AWS Bedrock — dostępne modele AI (marzec 2026)](https://intum.dev/modele-ai/aws-bedrock-dostepne-modele-ai-marzec-2026.md)

## Czym jest AWS Bedrock

Amazon Bedrock to serwis AWS, który daje dostęp do ponad 100 modeli AI od różnych dostawców — przez jedno API, na infrastrukturze AWS. Nie musisz zakładać osobnych kont u Anthropic, Meta czy Cohere. Płacisz za użycie (per token), dane zostają w twoim koncie AWS i wybranym regionie, a AWS gwarantuje, że nie używa ich do trenowania modeli.

To ważne szczególnie pod kątem RODO — dane przetwarzane w regionie EU (np. eu-west-1 Irlandia) nie opuszczają Europy.

## 💡 Intum i AWS Bedrock

W Intum mamy gotowy konektor do AWS Bedrock — wystarczy go skonfigurować w panelu konektorów (klucz AWS Access Key + Secret Key) i od razu można korzystać z modeli Bedrock w Noe AI. Nie trzeba nic programować ani instalować — konektor obsługuje zarówno chat jak i embeddingi.

Konektor wspiera:
- **Chat** — rozmowy z modelami Claude, Nova, Llama i innymi
- **Embeddingi** — generowanie wektorów przez Cohere Embed v4 (domyślnie) lub Embed Multilingual v3. Dane nie wychodzą poza AWS, co jest istotne pod kątem RODO

Model embeddingu można wybrać w konfiguracji konektora (pole "Model embeddingu").

## Modele tekstowe (chat / reasoning)

Bedrock oferuje modele od kilkunastu dostawców. Poniżej najważniejsze z podziałem na kategorie.

### Anthropic Claude

Najnowsze modele Claude dostępne w Bedrock (z prefiksem `eu.` dla regionu EU):

| Model | Model ID | Uwagi |
|---|---|---|
| **Claude Opus 4.6** | `anthropic.claude-opus-4-6-v1` | Najinteligentniejszy model Anthropic. Coding, agenci, złożone zadania |
| **Claude Sonnet 4.6** | `anthropic.claude-sonnet-4-6` | Dobry balans jakości i szybkości |
| **Claude Sonnet 4.5** | `anthropic.claude-sonnet-4-5-20250929-v1:0` | Poprzednia generacja, nadal solidny |
| **Claude Opus 4.5** | `anthropic.claude-opus-4-5-20251101-v1:0` | Poprzednia generacja premium |
| **Claude Haiku 4.5** | `anthropic.claude-haiku-4-5-20251001-v1:0` | Najszybszy i najtańszy. Dobry do prostych zadań |

### Meta Llama

| Model | Model ID | Uwagi |
|---|---|---|
| **Llama 4 Maverick 17B** | `meta.llama4-maverick-17b-instruct-v1:0` | Najnowszy, multimodalny (tekst + obraz) |
| **Llama 4 Scout 17B** | `meta.llama4-scout-17b-instruct-v1:0` | Lżejszy wariant Llama 4 |
| **Llama 3.3 70B** | `meta.llama3-3-70b-instruct-v1:0` | Sprawdzony, dobra jakość |
| **Llama 3.1 405B** | `meta.llama3-1-405b-instruct-v1:0` | Największy open source model |
| **Llama 3.1 8B** | `meta.llama3-1-8b-instruct-v1:0` | Mały, szybki, tani |

### Amazon Nova

| Model | Model ID | Uwagi |
|---|---|---|
| **Nova Premier** | `amazon.nova-premier-v1:0` | Najlepszy model Amazona. Multimodalny |
| **Nova Pro** | `amazon.nova-pro-v1:0` | Dobry stosunek jakość/cena |
| **Nova Lite** | `amazon.nova-lite-v1:0` | Szybki, tani. Obsługuje tekst, obraz, wideo |
| **Nova 2 Lite** | `amazon.nova-2-lite-v1:0` | Najnowsza generacja Nova |

### Mistral AI

| Model | Model ID | Uwagi |
|---|---|---|
| **Mistral Large 3 (675B)** | `mistral.mistral-large-3-675b-instruct` | Flagowy model Mistral. Multimodalny |
| **Magistral Small** | `mistral.magistral-small-2509` | Dobry do codziennych zadań |
| **Ministral 14B** | `mistral.ministral-3-14b-instruct` | Średniej wielkości, multimodalny |
| **Devstral 2 (123B)** | `mistral.devstral-2-123b` | Dedykowany do programowania |

### DeepSeek

| Model | Model ID | Uwagi |
|---|---|---|
| **DeepSeek V3.2** | `deepseek.v3.2` | Najnowszy, bardzo dobra jakość |
| **DeepSeek R1** | `deepseek.r1-v1:0` | Model reasoning (chain-of-thought) |
| **DeepSeek V3.1** | `deepseek.v3-v1:0` | Poprzednia wersja |

### Inne

| Model | Dostawca | Uwagi |
|---|---|---|
| **Qwen3 Coder Next** | Alibaba/Qwen | Dedykowany do kodu |
| **Qwen3 32B** | Alibaba/Qwen | Dobry model ogólny |
| **GLM 4.7** | Z.AI | Chiński model, dobra wielojęzyczność |
| **Kimi K2.5** | Moonshot AI | Thinking model z obsługą obrazów |
| **MiniMax M2.1** | MiniMax | Dobry stosunek jakość/cena |
| **Palmyra X5** | Writer | Zoptymalizowany pod enterprise |
| **Gemma 3 27B** | Google | Open source od Google |
| **GPT-OSS 120B** | OpenAI | Open source modele OpenAI |
| **Nemotron Nano 30B** | NVIDIA | Zoptymalizowany pod edge/inference |
| **Jamba 1.5 Large** | AI21 Labs | Architektura SSM+Transformer |

## Modele embeddingowe

Szczegółowe porównanie embeddingów (z oceną jakości na polskim) jest w powiązanym artykule [Top 10 modeli embeddingowych](../modele-ai/top-10-modeli-embeddingowych-ranking-2026). Tu krótkie podsumowanie co jest dostępne w Bedrock:

| Model | Model ID | Wymiary | Input | Uwagi |
|---|---|---|---|---|
| **Cohere Embed v4** | `cohere.embed-v4:0` | 256-1536 | tekst + obraz | Najlepszy w Bedrock. Multimodalny, konfigurowalne wymiary. Domyślny w konektorze Intum |
| **Cohere Embed Multilingual v3** | `cohere.embed-multilingual-v3` | 1024 | tekst | Dobry do wielojęzycznego retrieval |
| **Cohere Embed English v3** | `cohere.embed-english-v3` | 1024 | tekst | Zoptymalizowany pod angielski |
| **Amazon Titan Text Embeddings V2** | `amazon.titan-embed-text-v2:0` | 1024 | tekst | Najtańszy. Słabszy jakościowo |
| **Amazon Titan Embeddings G1** | `amazon.titan-embed-text-v1` | 1536 | tekst | Starszy model, nie polecam |
| **Amazon Titan Multimodal G1** | `amazon.titan-embed-image-v1` | 1024 | tekst + obraz | Embeddingi z obrazów i tekstu |
| **Amazon Nova Multimodal Embeddings** | `amazon.nova-2-multimodal-embeddings-v1:0` | — | tekst + obraz + audio + wideo | Najnowszy, obsługuje 4 modalności |
| **TwelveLabs Marengo Embed 3.0** | `twelvelabs.marengo-embed-3-0-v1:0` | — | tekst + obraz + audio + wideo | Specjalistyczny embedding wideo |

## Modele generacji obrazów

| Model | Dostawca | Uwagi |
|---|---|---|
| **Nova Canvas** | Amazon | Generacja i edycja obrazów |
| **Stable Diffusion 3.5 Large** | Stability AI | Flagowy model Stability |
| **Stable Image Ultra** | Stability AI | Najwyższa jakość |
| **Stable Image Core** | Stability AI | Szybki, tańszy |

Stability AI oferuje też specjalistyczne narzędzia: inpainting, outpainting, usuwanie tła, zmiana stylu, upscaling.

## Modele wideo

| Model | Dostawca | Uwagi |
|---|---|---|
| **Nova Reel** | Amazon | Generacja wideo z tekstu/obrazu |
| **Ray v2** | Luma AI | Generacja wideo z tekstu |
| **Pegasus v1.2** | TwelveLabs | Analiza i rozumienie wideo |

## Modele głosowe (speech-to-speech)

| Model | Dostawca | Uwagi |
|---|---|---|
| **Nova 2 Sonic** | Amazon | Rozmowa głosowa w czasie rzeczywistym |
| **Nova Sonic** | Amazon | Poprzednia wersja |
| **Voxtral Small/Mini** | Mistral | Transkrypcja mowy na tekst |

## Re-ranking

| Model | Dostawca | Uwagi |
|---|---|---|
| **Amazon Rerank 1.0** | Amazon | Reranking wyników wyszukiwania |
| **Cohere Rerank 3.5** | Cohere | Lepszy jakościowo od Amazon |

## Cennik — orientacyjne koszty

Bedrock działa w modelu pay-per-use (płacisz za tokeny). Orientacyjne ceny za 1M tokenów input/output:

| Model | Input | Output | Uwagi |
|---|---|---|---|
| Nova Micro | $0.035 | $0.14 | Najtańszy w Bedrock |
| Nova Lite | $0.06 | $0.24 | Tani, multimodalny |
| Nova Pro | $0.80 | $3.20 | Dobry balans |
| Claude Haiku 4.5 | $0.80 | $4.00 | Tani Claude |
| Claude Sonnet 4.6 | $3.00 | $15.00 | Średnia półka |
| Claude Opus 4.6 | $15.00 | $75.00 | Premium |
| Llama 3.3 70B | $0.72 | $0.72 | Open source = tańszy |
| DeepSeek V3.2 | ~$0.50 | ~$2.00 | Dobra jakość za cenę |
| Titan Embeddings V2 | $0.02 | — | Embedding |
| Cohere Embed v4 | $0.10 | — | Embedding premium |

Dostępny jest też **batch inference** z 50% rabatem i **provisioned throughput** ze stałą opłatą godzinową.

## Dostępność w regionie EU

Nie wszystkie modele są dostępne w regionie EU (eu-west-1). Najważniejsze modele Claude, Nova i Llama są dostępne z prefiksem `eu.` (np. `eu.anthropic.claude-sonnet-4-6`). Bedrock oferuje też **Geo inference routing** — automatyczny routing w obrębie EU, żeby dane nie wychodziły poza Europę.

Aktualna lista dostępności per region: [Model support by AWS Region](https://docs.aws.amazon.com/bedrock/latest/userguide/models-regions.html)

## Linki

- [AWS Bedrock — strona produktu](https://aws.amazon.com/bedrock/)
- [Pełna lista modeli](https://docs.aws.amazon.com/bedrock/latest/userguide/models-supported.html)
- [Dostępność modeli per region](https://docs.aws.amazon.com/bedrock/latest/userguide/models-regions.html)
- [Cennik Bedrock](https://aws.amazon.com/bedrock/pricing/)
- [Anthropic Claude w Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/model-parameters-claude.html)
- [Amazon Titan Embeddings](https://docs.aws.amazon.com/bedrock/latest/userguide/titan-embedding-models.html)
- [Cohere Embed v4 w Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/model-parameters-embed-v4.html)
- [DeepSeek w Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/model-parameters-deepseek.html)

---

## Powiązane

- [Top 10 modeli embeddingowych - ranking 2026](https://intum.dev/modele-ai/top-10-modeli-embeddingowych-ranking-2026.md)
