Odkryć AmerykęCo to znaczy? Definicja SLANG.PL
Odkryć Amerykę to ironia, gdy ktoś powie coś oczywistego.
Definicja – co to znaczy odkryć Amerykę
Odkryć Amerykę to zwrot stosowany jako ironia w sytuacji, gdy ktoś z przejęciem powie coś, co jest dla innych od dawna wiadome i oczywiste.
Przykłady użycia określenia odkryć Amerykę
- – Ej, mam wrażenie, że Mateusz i Monika chyba się pokłócili!
– Ale żeś Amerykę odkrył. Przecież się rozstali tydzień temu.
- – O kurde, jutro sprawdzian z matmy?
– Odkryłeś Amerykę. Babka przypomina o nim od dwóch tygodni.
Autor opracowania: Andrzej Szymański
Cześć, jestem Andrzej, dobrze Cię tu widzieć :)
Z wykształcenia jestem kulturoznawcą, pomagam tworzyć slang.pl, bo niczym nie jaram się tak jak slangiem i mową uliczną. Szukanie znaczeń oraz genezy słów mowy potocznej, a także śledzenie ich ewolucji i wystąpień w kulturze masowej to moje największe zajawki. Mam nadzieję, że moje opracowania pomogą Ci lepiej zrozumieć język osób, na których Ci zależy!
✓ Treść zweryfikowana przez redakcję Slang.pl
Ostatnia aktualizacja definicji: 14 marca 2025
Oryginalna data publikacji: 9 marca 2018
Spoko ja już w domu i nie wiem czy