ALL90 LG에너지솔루션 24년 3월 채용 합격후기 1. 서류 전형 (~2024/3/22) 서류전형은 공통 2문항과 직무 특화 1문항, 총 3문항으로 구성되어 있다. 1문항은 회사와 직무에 대한 관심과 어필을 해야하는 문항이었고, 2문항은 살아오면서 겪은 성공이나 실패를 얘기하는 문항이었다. 3문항이 직무 특화 질문이었기 때문에 2문항에서는 직무적인 부분도 있지만 인성적인 부분을 더 어필할 수 있는 스토리를 선택한 것 같다. 2. 역량검사 (~2024/4/3) 역량검사의 경우 R&D부문은 필기(LG way fit test), 나머지는 AI 역량검사였다. 나의 경우 AI 역량검사였고, 잡다를 통해 치뤘다. 검사의 경우 기본적인 검사와 게임 외에 회사에서 추가하는 질문도 있었다. 아예 대답 못한 질문도 있었는데, 나중에 관련 단톡방과 합격 후 동기들과 얘기.. 2024. 11. 24. 앞으로 3년 경제전쟁의 미래 20년도에 구입해서 읽어보았고, 그 사이 경제에 담을 쌓고 살다 다시 공부를 해봐야겠다는 생각으로 이 책을 찾았다. 큼직한 사건들을 환율과 금리로 잘 정리했다는 기억이 남아있기도 했고, 20년도 당시의 상황인만큼 트럼프가 재집권에 성공한 현재의 상황과 비교해 볼 수 있다는 생각도 있었다. 이 책은 1.일본의 자산버블 2.한국 부동산과 가계대출 3.유럽재정위기 4.중국위안화 5.미국달러 관점에서 큼직한 사건들을 환율과 금리로 풀어내고 있다. 책에서 말하는 환율과 금리는 각각 "대외적인 돈의 가치", "대내적인 돈의 가치"이고, 환율과 금리가 오르고 내리는 현상에는 여러가지 이유와 그로 인해 발생하는 장단점들이 있다. 예를 들어 환율이 내려가면(통화가지 절상) 수입품에 대한 물가 안정과 자본유출압력 완화.. 2024. 11. 16. GSAT 명제추리 마스터하기 명제추리 문제 푸는 순서 1. 주어진 두 명제의 키워드 순서(A는 B다)와 조건(어떤, 모든)을 보고 유형 3개 중 어떤 유형인지 파악해 정답 명제의 조건(어떤, 모든)을 파악한다. 2. 두 명제의 각 키워드 순서를 통해 나머지 명제의 키워드 순서를 맞춘다. GSAT 명제추리 문제는 (3가지의 문제유형) X (주어지는 각 명제에 대한 역,대우 경우의 수)의 경우의 수를 가지고 있다. 핵심은 명제 속 키워드의 순서와 조건을 통해 문제의 유형을 바로 알 수 있어야 한다. -> 유형3에서 꼬인 문제 예시설명 다음 세 가지 유형을 보면서 각 키워드의 순서에 주목해보자! 유형 1. 모모 -> 모 가장 쉬운 유형으로, 전제1 - 모든 A는 B다 전제2 - 모든 B는 C다 결론 - 모든 A는 C다. - C가 아닌 모.. 2024. 3. 22. Vision Transformer (AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE) 논문 발표 당시 Transformer는 NLP 분야의 표준으로 자리잡았는데, CV에서의 적용은 한정적이었다. CV에서 attention은 CNN과 함께 적용되거나, CNN 구조를 유지하면서 특정 컴포넌트만 대체하는 데 사용되었다. 본 논문에서는 pure transforemr를 image pathes의 시퀀스에 직접 적용하는 것이 image classification 분야에서 좋은 성능을 낸다는 것을 입증한다. ViT의 특징 기존 CNN 기반 SOTA 모델보다 성능이 좋으면서 Fine-Tuning 과정에서 더 적은 리소스로도 더 좋은 성능을 보여준다. 기존 Transformer 모델처럼 parameter의 한계가 아직 없다. 더 많은 데이터와 더 많은 parameter로 더 좋은 성능을 보여줄 수 있다. .. 2024. 1. 29. YOLOv3 Pytorch 코드 리뷰 코드 : https://github.com/aladdinpersson/Machine-Learning-Collection/tree/master/ML/Pytorch/object_detection/YOLOv3 1. DarkNet + Multi-scale feature map extracter YOLO v3에서는 DarkNet-53이라는 새로운 Backbone network가 등장한다. 총 53개의 conv layer로 이루어져있다. """ Implementation of YOLOv3 architecture """ import torch import torch.nn as nn """ Information about architecture config: Tuple is structured by (filters, .. 2024. 1. 26. FLOPs FLOPs는 다양한 딥러닝 모델들의 논문을 볼 때 연산량을 나타내는 지표로써 많이 사용된다. FLOPs를 포함한 연산량과 관련된 지표를 간단히 정리하면 다음과 같다. FLOPs는 FLoating point Operations의 약자로, 부동소수점 연산을 의미한다. FLOPs의 연산은 산칙연산을 포함해 Root, log, exp 등의 연산도 포함되며, 각각을 1회의 연산으로 계산한다. FLOPS는 Floating point Operations Per Second로, 초당 부동소수점 연산을 의미함으로, 하드웨어의 퍼포먼스 측면을 확인하는 지표이다. MAC은 현대 하드웨어들이 tensor의 연산을 할 때 사용되는 명령어 셋인 FMA가 a*x+b를 하나의 연산으로 처리하여 이 연산이 몇 번 실행되었는지 세는 것.. 2024. 1. 25. YOLOv1 Pytorch 코드 리뷰 코드 : https://github.com/aladdinpersson/Machine-Learning-Collection/tree/master/ML/Pytorch/object_detection/YOLO 1. DarkNet DarkNet은 YOLOv1이 feature map을 생성하기 위해 만들어진 독자적인 CNN이다. ## model.py """ Implementation of Yolo (v1) architecture with slight modification with added BatchNorm. """ import torch import torch.nn as nn """ Information about architecture config: Tuple is structured by (kernel_siz.. 2024. 1. 25. DETR : End-to-End Object Detection with Transformers 논문 발표 당시 최근까지 나온 detection 모델을 설명하기 위해서는 Region proposl, Anchor box, NMS 등 새로운 개념들이 많이 등장했다. 이런 개념들은 실제로 구현하기 어렵고 코드가 길어진다는 단점이 있었는데, 2020년 당시 Facebook(현 META)은 이런 개념들을 적용하지 않고 네트워크 구조가 단순하면서 end-to-end 학습이 가능한 DETR을 제안한다. 기존 Object detection 본 논문에서는 객체 인식을 bbox와 category라는 set을 예측하는 task로 정의한다. 이 때 기존의 모델들은 다수의 proposal, anchor, window center 등을 기반으로 set을 찾는 간접적인 방법에 기반을 두고 있다. 본 논문에서는 이러한 pipe.. 2024. 1. 25. BPE(Byte Pair Encoding), WordPiece Tokenization BPE에 대해 정리하기 전에 Tokenization에 대해 간단히 정리를 하고 넘어간다. Tokenization Tokenization은 Text를 임의로 지정한 단위, 즉 token으로 나누는 작업이다. NLP 모델을 학습시킬 때 토큰화된 단어의 개수가 모델 성능에 다양한 영향을 미치며, 여기서 특히 Out-of-Vocabulary(OOV)는 큰 문제다. Tokenization은 크게 3가지 유형으로 분류한다. 1. Word based Tokenizer : 말 그대로 단어 단위로 토큰화를 한다. - 하지만 단어 단위로 토큰화를 하면 신조어를 처리하지 못하거나 OOV와 같은 문제가 있다. 2. Character based Tokenizer : 영어 기준 알파벳, 한국어 기준 초성 중성 종성 혹은 음절 단.. 2024. 1. 25. 이전 1 2 3 4 ··· 10 다음