安倍政権になってから日本が変わったことってあるか?むしろ悪化してる気がするんだが…