
우리나라에서 유명한 포털사이트인 네이버를 예로 들어보자
유명한 만큼 불특정 다수의 사람들이 접근할 것이다. 이는 곧 서버 한 대에 몰리는 트래픽이 많아져 원활하지 못한 서비스를 제공할 것이고, 결국 아무리 성능이 좋다고 하더라도 엄청난 트래픽을 견디지 못하고 죽어버릴 것이다.
이를 방지하기 위해 서버를 분산해 가해지는 부하를 적절하게 분산하는 작업이 필요하다. 개발자가 의도한 대로 서버마다 부하가 골고루 분산되어야 각 서버가 적절하게 부하를 담당할 수 있을 것이다.
이렇게 두 개 이상의 시스템에 작업을 나누는 것을 로드 밸런싱이라 하고 부하 분산을 담당하는 장비를 로드 밸런서라고 한다.

Scale-Up은 기존의 단일 서버 또는 컴퓨터의 성능을 개선하기 위해 해당 시스템의 하드웨어 자원을 업그레이드하는 방법이다. 이 방법을 수직적 확장이라고 하며 CPU, RAM, 디스크 용량 등을 증가시켜 성능을 개선한다.
Scale-Up은 기존 시스템에서 작업 부하가 증가했을 때 효과적일 수 있지만, 한계에 도달하게 되면 더 이상 성능을 개선할 수 없다.

Scale-Out은 시스템의 성능을 개선하기 위해 여러 대의 서버를 추가하는 방법이다. 이 방법은 수평적 확장이 가능하고, 시스템의 성능을 필요에 따라 확장할 수 있다. 여러대의 서버를 사용하므로 단일 서버에 비해 고가의 하드웨어를 구매할 필요가 없고, 시스템의 가용성도 높일 수 있다.
그러나 Scale-Out은 시스템을 관리하는데 있어 복잡성이 증가하고, 데이터 동기화 및 로드 밸런싱 등의 문제를 해결해야 한다.
로드밸런서는 OSI 7계층을 기준으로 어떻게 부하를 분산하는지에 따라 종류가 나뉜다. 이중 4계층(네트워크)에서 로드 밸런싱을 담당하는 것을 L4 로드 밸런서, 7계층(애플리케이션)에서 로드 밸런싱을 담당하는 것을 L7 로드 밸런서라 한다.
L4와 L7 로드 밸런싱은 각각 다른 상황에서 사용된다. L4 로드 밸런서는 네트워크 계층에서 동작하며 IP 주소와 포트 번호를 기반으로 로드 밸런싱을 수행한다. TCP/UDP와 같은 전송 계층 프로토콜에 대한 부하 분산을 담당하며 빠르고 안정성이 높아 대규모 트래픽 처리에 적합하다. L7 로드 밸런서는 HTTP, HTTPS 등 애플리케이션 계층 프로토콜에 대한 부하 분산을 수행할 수 있으며, 애플리케이션에 대한 보다 자세한 정보를 수집해 세밀한 부하 분산과 애플리케이션 성능 개선이 가능하다.
이 외에도 다양한 계층에서 동작하는 로드 밸런서가 있다.