kekavigi.xyz

Pemrograman Tujuan

Artikel ensiklopedia yang merangkum hal-hal terkait pemrograman tujuan.

Ditulis tanggal oleh A. Keyka Vigiliant. Revisi terakhir pada tanggal . Konten diterbitkan dibawah lisensi CC BY-SA 4.0.


Pemrograman Tujuan (Bahasa Inggris: Goal Programming), selanjutnya disingkat dengan GP, adalah sebuah metode optimisasi multiobjektif dalam bidang analisis keputusan multi-kriteria (multi-criteria decision analysis, MCDA). Metode ini dapat dianggap sebagai perumuman dari pemrograman linear, agar dapat menangani beberapa objektif secara serentak yang umumnya saling berkonflik. Contoh permasalahan ini dapat berupa mencari solusi yang dapat meningkatkan keuntungan bersih sekaligus mengurangi besarnya ongkos usaha. Menggunakan informasi target nilai yang ingin dicapai setiap objektif, GP melakukan optimisasi dengan meminimumkan besar penyimpangan-penyimpangan yang tidak diinginkan solusi dengan nilai target-target tersebut. Fungsi objektif dalam GP disebut dengan fungsi pencapaian, dan digunakan untuk menghampiri preferensi pengambil keputusan terkait caranya meminimumkan penyimpangan-penyimpangan tersebut. Fungsi ini dapat bernilai skalar maupun vektor, tergantung varian GP yang digunakan.

Model GP menggunakan filosofi satisficing ketimbang optimising dalam pengambilan solusi.1 GP dapat digunakan untuk melakukan analisis terkait: daftar sumber daya yang diperlukan untuk memenuhi suatu kumpulan objektif, besarnya ketercapaian (atau kompromi) setiap objektif yang dihasilkan suatu kombinasi sumber daya, dan solusi dominan dari berbagai kendala dan tingkat kepentingan setiap objektif. Saat ini, GP telah diterapkan dalam pemilihan portofolio,2 perencanaan agrikultur,3 penjadwalan,4 dan banyak lagi.

Daftar Isi

Artikel ini cukup panjang, dan sepertinya dapat saya jelaskan dalam tiga bagian. Artikel ini juga dalam proses penyusunan, beberapa bagian/subbab dengan tanda bintang (*) kurang stabil (dapat mudah berubah) ketimbang tanpa tanda itu. Fokus utama artikel saat ini adalah keadan dan perkembangan sebelum tahun 2010-an.

Bagian pertama memberikan gambaran umum Sejarah dan Bentuk Dasar dari model pemrograman tujuan (GP). Seiring berjalannya waktu, beberapa Varian dari model ini dicetuskan dan dikembangkan, dengan tiga varian yang umum adalah: GP Berbobot, GP Leksikografik, dan GP Chebyshev. Aspek pengembangan GP lainnya adalah perlu adanya Normalisasi, dan serupa seperti varian, ada bebeberapa teknik normalisasi yang umum: normalisasi persentase, normalisasi nol-satu, normalisasi Euklides, dan beberapa normalisasi lainnya. Penelitian lebih dalam tentang GP juga menunjukkan perlunya tahap Restorasi Solusi, dengan tiga jenis restorasi yang umum adalah: restorasi langsung, restorasi berbasis preferensi, dan restorasi interaktif.

Bagian kedua membahas tahapan formulasi model GP. Sebelumnya, akan dibahas kritik dan miskonsepsi umum*, lalu masuk ke kiat-kiat proses penyusunan model yang baik*.

Bagian ketiga dan yang terakhir membahas tentang Perumuman model GP (dan mungkin beberapa hal lagi yang belum dipikirkan saat ini). Beberapa perumuman yang dibahas meliputi: GP Interval, dan GP Samar*.

Sejarah

Formulasi model GP paling awal diperkenalkan oleh Charnes et al. dalam permasalahan menentukan kompensasi untuk manajer.5 Meskipun pada saat itu dianggap sebagai adaptasi dari pemrograman linear (LP), formulasi model menampilkan konsep “regresi terbatas” yang menjadi dasar dari minimisasi dalam GP.6 Istilah goal programming baru muncul pada buku teks oleh Charnes dan Cooper pada tahun 1961 – walau model masih disajikan sebagai perumuman LP untuk menyelesaikan masalah LP yang infeasible (tidak memiliki solusi).7 Pengembangan model GP lebih lanjut yang dilakukan oleh oleh Ijiri,8 Lee,9 dan Ignizio,10 membuat model ini umum digunakan sebagai alat riset operasi.

Pada perkembangannya, salah satu aspek yang membuat model GP menjadi pilihan metode MCDM yang umum digunakan, adalah faktor formulasi yang sederhana dan kemiripan dengan model LP.11 Dalam masa ini pula, berbagai varian GP juga dikembangkan untuk menyelesaikan masalah-masalah di banyak bidang. Akan tetapi banyak kritik muncul terkait GP pada tahun 1980-an. Sebagian pihak menganggap hal ini terjadi karena kesalahan-kesalahan mendasar, yang disebabkan oleh kurangnya pemahaman praktek MCDM.1213 Perdebatan yang berlanjut terkait fundamental model GP menghasilkan publikasi buku teks oleh Romero,14 yang menunjukkan masalah terkait GP yang sering terjadi lebih diakibatkan oleh praktik pemodelan yang buruk, dan memberikan praktik-praktik GP yang baik.15

Schniederjans merangkum perkembangan GP sampai tahun 1995, dan mencatat bibliografi banyak artikel yang berkaitan dengan GP.16 Selain itu, Jones dan Tamiz memberikan bibliografi serta deskripsi untuk artikel periode 1990-2000.17 Sebuah buku teks tahun 2010 oleh Jones dan Tamiz berisi penjelasan komprehensif terkait metode GP yang terbaru.18

Bentuk Dasar

Karena model GP dibuat dari adaptasi model pemrograman linear (LP), perumusan model GP dapat dihasilkan dari mengubah notasi dan asumsi-asumsi model LP. Pada model LP, rumusan model dapat dinyatakan dalam bentuk kanonik sebagai

minZ=j=1ncjxjfi(𝐱)biuntuk i=1,,mxj0untuk j=1,,n.\begin{gather*} \min\; Z = \sum_{j=1}^nc_jx_j\\ \begin{aligned} f_i(\mathbf{x}) &\geq b_i &&\text{untuk }i=1,\,\dots,\,m\\ x_j &\geq 0 &&\text{untuk }j=1,\,\dots,\,n.\\ \end{aligned} \end{gather*}

Pada bentuk di atas, mm menyatakan banyaknya kendala, xjx_j disebut variabel keputusan, dan ZZ disebut fungsi objektif. Fungsi linear

fi(𝐱)=j=1naijxjf_i(\mathbf{x})=\sum_{j=1}^na_{ij}x_j

menyatakan persamaan kendala ke-ii, yang dapat bernilai lebih besar (memiliki deviasi positif) daripada nilai target bib_i. Dengan bantuan aritmetika dasar, model LP tersebut juga dapat menyertakan kendala dengan bentuk “kurang dari” maupun “sama dengan.”

Malangnya, terlepas dari jenis kendala yang digunakan, model LP hanya mempertimbangkan solusi yang memenuhi semua kendala. Ketika kendala-kendala dalam model LP tidak semuanya dapat dipenuhi, model LP tidak memiliki solusi dan disebut infeasible. Agar tetap menghasilkan solusi yang wajar dalam kondisi tersebut, Charnes dan Cooper menganggap setiap kendala19 yang menyusun model LP sebagai fungsi:720

hi(𝐱)=|fi(𝐱)bi|;untuk i=1,,Q.h_i(\mathbf{x})=\left|f_i(\mathbf{x})-b_i\right|;\quad\text{untuk }i=1,\,\dots,\,Q.

Masing-masing fungsi ini dianggap sebagai tujuan (goal) yang perlu dipenuhi agar model menghasilkan solusi feasible. Maksud penulisan tersebut dapat dipahami sebagai berikut: solusi feasible pada LP dihasilkan ketika hi(𝐱)=0h_i(\mathbf{x})=0. Pada keadaan hal ini tidak mungkin terjadi, solusi “terbaik” selanjutnya adalah solusi yang terletak sedekat mungkin dengan nilai target-target yang ditetapkan. Optimisasi selanjutnya dapat dilakukan sebagai

minZ=i=1Qhi(𝐱)=i=1Q(di++di)fi(𝐱)di++di=biuntuk i=1,,Qdi+,di0untuk i=1,,Qxj0untuk j=1,,n\begin{gather*} \min\; Z = \sum_{i=1}^Qh_i(\mathbf{x}) = \sum_{i=1}^Q(d_i^++d_i^-)\\ \begin{aligned} f_i(\mathbf{x}) -d_i^++d_i^- &= b_i &&\text{untuk }i=1,\,\dots,\,Q\\ d_i^+,\,d_i^- &\geq 0 &&\text{untuk }i=1,\,\dots,\,Q\\ x_j &\geq 0 &&\text{untuk }j=1,\,\dots,\,n \end{aligned} \end{gather*}

dengan di+d_i^+ disebut variabel deviasi positif dan did_i^- disebut variabel deviasi negatif. Variabel QQ digunakan untuk menyatakan banyaknya tujuan yang dipertimbangkan model. Bentuk di atas selanjutnya menjadi dasar dari model GP.20

Kendala-kendala pada model GP yang melibatkan variabel-variabel deviasi disebut dengan kendala lunak (soft constraint, juga disebut goal constraint). Istilah ‘kendala lunak’ digunakan untuk membedakannya dengan kendala pada model LP, yang selanjutnya disebut sebagai kendala tegas (hard constraint). Kendala tegas dapat disertakan dalam model GP tapi disarankan tidak dalam jumlah yang banyak. Penggunaan kendala tegas yang berlebihan dapat meniadakan solusi-solusi alternatif yang mungkin menarik bagi pengambil keputusan. Tanpa mengurangi keumuman, semua kendala pada model GP dalam artikel ini dianggap sebagai kendala lunak – dengan kata lain, Q:=mQ:=m.

Lebih lanjut, fungsi ZZ pada bentuk di atas disebut dengan fungsi pencapaian, untuk membedakannya dengan fungsi optimisasi di model LP. Fungsi ini hanya menyertakan variabel-variabel deviasi yang ingin diminimumkan, dan tidak melibatkan variabel-variabel keputusan.21 Variabel-variabel deviasi dapat dihasilkan menggunakan hubungan

di+=12[|hi(𝐱)|+hi(𝐱)]={hi(𝐱)bijika hi(𝐱)bi0lainnya.d_i^+ = \frac{1}{2}\left[|h_i(\mathbf{x})| + h_i(\mathbf{x})\right] = \begin{cases} h_i(\mathbf{x})-b_i & \text{jika } h_i(\mathbf{x}) \geq b_i\\ 0 & \text{lainnya.}\\ \end{cases}

dan

di=12[|hi(𝐱)|hi(𝐱)]={bihi(𝐱)jika hi(𝐱)bi0lainnya.d_i^- = \frac{1}{2}\left[|h_i(\mathbf{x})| - h_i(\mathbf{x})\right] = \begin{cases} b_i-h_i(\mathbf{x}) & \text{jika } h_i(\mathbf{x}) \leq b_i\\ 0 & \text{lainnya.}\\ \end{cases}

Pendefinisian variabel-variabel deviasi di atas mengartikan sebuah kendala tidak dapat mengalami pencapaian melebihi target (nilai deviasi positif di+>0d_i^+>0) sekaligus pencapaian dibawah target (nilai deviasi di>0d_i^->0) secara bersamaan.

Varian

Model GP dapat diklasifikasikan ke dalam beberapa varian, masing-masing dicirikan oleh metrik jarak yang mendasari atau fungsi utilitas yang dipakai. Tiga varian umum dari model GP akan dideskripsikan di sini.17

GP Berbobot

Pada varian model GP yang pertama, fungsi pencapaian akan mengukur jumlah berbobot besar penyimpangan yang tidak diinginkan dari nilai target-targetnya. Bobot-bobot tersebut disesuaikan dengan tingkat kepentingan relatifnya menurut pengambil keputusan. Metrik jarak yang mendasari model ini adalah jarak Manhattan. Varian ini dikenal sebagai model GP berbobot (weighted GP atau non-preemptive GP) dan selanjutnya disingkat dengan WGP. Formulasi WGP dengan QQ tujuan dapat dinyatakan sebagai

minZ=i=1Q1ki(wi+di++widi)fi(𝐱)di++di=biuntuk i=1,,Qdi+,di0untuk i=1,,Qxj0untuk j=1,,n\begin{gather*} \min \; Z=\sum_{i=1}^Q\frac{1}{k_i}\left(w_i^+d_i^++w_i^-d_i^-\right)\\ \begin{aligned} f_i(\mathbf{x}) -d_i^++d_i^- &= b_i &&\text{untuk }i=1,\,\dots,\,Q\\ d_i^+,\,d_i^- &\geq 0 &&\text{untuk }i=1,\,\dots,\,Q\\ x_j &\geq 0 &&\text{untuk }j=1,\,\dots,\,n \end{aligned} \end{gather*}

Konstanta wi+w_i^+ dan wiw_i^- masing-masing menyatakan bobot (bernilai non-negatif) untuk variabel-variabel deviasi dalam fungsi pencapaian. Bobot akan diberi nilai nol jika pengambil keputusan menganggap variabel deviasi yang bersangkutan tidak penting untuk diminimumkan. Setiap variabel deviasi dalam fungsi pencapaian selanjutnya perlu dinormalisasi agar memiliki satuan ukuran yang sama. Beberapa pilihan normalisasi dapat dilihat di ¶ Normalisasi.

Model WGP digunakan ketika semua tujuan dapat dibandingkan secara langsung, dan pengambil keputusan bersedia dan mampu memberikan bobot yang mencerminkan kepentingan relatif dari tujuan-tujuan dalam situasi tersebut. Selain itu, WGP sebaiknya digunakan ketika pengambil keputusan tertarik pada solusi yang memberikan total deviasi terbobot terkecil dari tujuan-tujuan, dan bukan keseimbangan dari keseluruhan pencapaian tujuan-tujuan tersebut. Dalam situasi seperti ini, WGP merupakan alat yang ampuh yang tidak hanya memberikan solusi, tapi juga memberikan informasi mengenai tarik-ulur (trade-off) antara tujuan-tujuan.

GP Leksikografik

Varian umum lain dari GP dibentuk dengan menetapkan variabel-variabel deviasi ke dalam sejumlah tingkat prioritas, lalu diminimumkan secara berurutan (leksikografis). Secara lebih spesifik, minimisasi dilakukan bertahap dari prioritas tertinggi ke terendah, sambil mempertahankan nilai minimum yang dicapai oleh semua minimisasi pada tahap-tahap sebelumnya. Varian GP ini dikenal sebagai model GP leksikografik (lexicographic GP atau pre-emptive GP) dan selanjutnya akan dirujuk dengan LGP. Varian LGP diperkenalkan dan dikembangkan (terutama) oleh Ijiri,8 Lee,9 dan Ignizio.22

Model LGP dapat dituliskan sebagai berikut:

lex min𝐚=[g1(𝐝+,𝐝),,gL(𝐝+,𝐝)]fi(𝐱)di++di=biuntuk i=1,,Qdi+,di0untuk i=1,,Qxj0untuk j=1,,n\begin{gather*} \text{lex min} \; \mathbf{a} = \left[g_1(\mathbf{d}^+,\,\mathbf{d}^-),\,\dots,\,g_L(\mathbf{d}^+,\,\mathbf{d}^-)\right] \\ \begin{aligned} f_i(\mathbf{x}) -d_i^++d_i^- &= b_i &&\text{untuk }i=1,\,\dots,\,Q\\ d_i^+,\,d_i^- &\geq 0 &&\text{untuk }i=1,\,\dots,\,Q\\ x_j &\geq 0 &&\text{untuk }j=1,\,\dots,\,n \end{aligned} \end{gather*}

Model ini memiliki QQ tujuan yang terbagi dalam LL tingkat prioritas. Fungsi pencapaian 𝐚\mathbf{a} adalah fungsi bernilai-vektor terurut dari LL tingkat prioritas tersebut. Setiap kendala tegas ditempatkan, berdasarkan konvensi, pada tingkat prioritas pertama. Fungsi gg umumnya (dalam setiap tingkat prioritas) memiliki bentuk

gl(𝐝+,𝐝)=i=1Q1ki(wil+di++wildi),g_l(\mathbf{d}^+,\,\mathbf{d}^-) = \sum_{i=1}^Q \frac{1}{k_i}\left(w_{il}^+d_i^+ + w_{il}^-d_i^- \right),

dengan wil+w_{il}^+ dan wilw_{il}^- menyatakan bobot relatif intra-prioritas. Seperti WGP, bobot bernilai nol diberikan pada variabel-variabel deviasi yang tidak penting untuk diminimumkan. Ketika variabel-variabel deviasi pada suatu tingkat prioritas memiliki satuan pengukuran yang berbeda, teknik-teknik normalisasi WGP perlu diterapkan agar operasi aritmatika dapat wajar dilakukan.

Model LGP adalah varian yang paling banyak diperdebatkan dalam aspek fungsi utilitas yang mendasarinya. Romero14 memberikan diskusi tentang topik ini serta praktik-praktik pemodelan ketika menggunakan LGP. Varian ini digunakan ketika pengambil keputusan memiliki tujuan-tujuan yang dapat diurutkan secara alami, dan bukan yang berbentuk perbandingan relatif. Hal ini juga digunakan ketika pengambil keputusan tidak dapat, atau tidak mau, memberikan kepentingan relatif yang relevan dari tujuan-tujuan dengan menggunakan bobot. LGP secara historis merupakan varian GP yang paling banyak digunakan.23

GP Chebyshev

Varian lain yang kurang banyak digunakan, tapi signifikan secara teoritis adalah varian GP Chebyshev, juga dikenal sebagai GP Minmax. Dalam varian ini, model akan memimumkan nilai deviasi terbesar dari kumpulan deviasi-deviasi, bukan jumlah dari deviasi-deviasi itu sendiri. Formulasi aljabar dari model GP Chebyshev diberikan sebagai:

minλi=1Q1ki(wi+di++widi)λuntuk i=1,,Qfi(𝐱)di++di=biuntuk i=1,,Qdi+,di0untuk i=1,,Qxj0untuk j=1,,n\begin{gather*} \min \; \lambda\\ \begin{aligned} \sum_{i=1}^Q\frac{1}{k_i}\left(w_i^+d_i^++w_i^-d_i^-\right) &\leq \lambda &&\text{untuk }i=1,\,\dots,\,Q\\ f_i(\mathbf{x}) -d_i^++d_i^- &= b_i &&\text{untuk }i=1,\,\dots,\,Q\\ d_i^+,\,d_i^- &\geq 0 &&\text{untuk }i=1,\,\dots,\,Q\\ x_j &\geq 0 &&\text{untuk }j=1,\,\dots,\,n \end{aligned} \end{gather*}

Model ini mempertimbangkan QQ tujuan. Konstanta bobot relatif wi+w_i^+ dan wiw_i^-, dan normalisasi kik_i, memiliki sifat yang sama dengan yang telah disampaikan pada varian WGP. Akan tetapi, berbeda dengan WGP, GP Chebyshev meminimumkan nilai deviasi terbesar, ketimbang total nilai deviasi. Akibatnya, GP Chebyshev sebisa mungkin akan menghasilkan keseimbangan antar besar penyimpangan pada setiap tujuan. Pengambil keputusan sebaiknya menggunakan GP Chebyshev jika kendala-kendala mereka didefinisikan dalam aspek keseimbangan dan keadilan.

Normalisasi

Dalam proses penyelesaian model GP, peran variabel-variabel deviasi dalam fungsi pencapaian perlu dinormalisasi. Normalisasi menyebabkan variabel-variabel deviasi memiliki satuan dan magnitudo yang sama, sehingga perhitungan antar variabel-variabel deviasi masuk akal dilakukan dan hasilnya dapat dibandingkan. Akan tetapi, ada banyak pilihan metode normalisasi beserta untung-rugi dalam menggunakan mereka; pilihan yang sesuai tergantung pada situasi masalah yang terjadi dan preferensi pengambil keputusan.

Metode normalisasi pada bagian ini difokuskan pada varian GP berbobot. Walaupun demikian, konsep setiap normalisasi dapat diterapkan atau disesuaikan untuk banyak varian model GP lainnya. Menggunakan masalah WGP di bawah ini sebagai contoh

mind1++d2+d3+d43x1+4x2d1++d1=560100x1+150x2d2++d2=7800x1d3++d3=80x2d4++d4=90x1+x2160di+,di0untuk i=1,,mxj0untuk j=1,,n\begin{gather*} \min \; d_1^+ + d_2^- + d_3^- + d_4^-\\ \begin{aligned} 3x_1 + 4x_2 - d_1^+ + d_1^- &= 560\\ 100x_1 + 150x_2 - d_2^+ + d_2^- &= 7800\\ x_1 - d_3^+ + d_3^- &= 80\\ x_2 - d_4^+ + d_4^- &= 90\\ x_1 + x_2 &\leq 160\\ d_i^+,\,d_i^- &\geq 0 &\text{untuk }i=1,\,\dots,\,m\\ x_j &\geq 0 &\text{untuk }j=1,\,\dots,\,n \end{aligned} \end{gather*}

Berikut adalah beberapa teknik normalisasi yang umum dilakukan.2425

Normalisasi persentase

Normalisasi ini akan menskala setiap variabel deviasi sehingga kontribusinya dalam fungsi pencapaian menyatakan persen penyimpangan dari nilai target yang ditetapkan. Secara matematis, fungsi pencapaian pada model di atas akan berubah menjadi

min(d1+560+d27800+d380+d490).\min \left(\frac{d_1^+}{560} + \frac{d_2^-}{7800} + \frac{d_3^-}{80} + \frac{d_4^-}{90}\right).

Normalisasi jenis ini mudah diterapkan dan konsep total persentase penyimpangan sederhana untuk diartikan. Akan tetapi, metode ini tidak cocok jika pengambil keputusan ingin membandingkan secara langsung beberapa tujuan yang diukur dalam unit satuan yang sama. Sebagai contoh, misalkan masalah GP dengan dua tujuan berikut yang dinyatakan dalam satuan rupiah:

x1+3x2d1++d1=10002x1+x2d1++d2=500\begin{align*} x_1 + 3x_2 - d_1^+ + d_1^- &= 1000\\ 2x_1 + x_2 - d_1^+ + d_2^- &= 500 \end{align*}

Menerapkan normalisasi persentase akan menghasilkan fungsi pencapaian

min(d11000+d2500)\min \left(\frac{d_1^-}{1000} + \frac{d_2^-}{500}\right)

yang mengartikan besar toleransi terhadap penyimpangan Rp.1000 dari target pertama, setara dengan besar toleransi terhadap penyimpangan Rp.500 dari target kedua. Sudut pandang ini wajar jika penyimpangan ingin dibandingkan dalam bentuk persentase, tapi tidak sesuai jika penyimpangan kedua tujuan ingin dibandingkan dalam satuan Rupiah. Beberapa masalah lain terkait normalisasi adalah formulasinya yang tidak kokoh (robust), karena perubahan nilai target akan menghasilkan persentase penyimpangan yang berbeda (walaupun besar penyimpangannya sama); tidak dapat digunakan ketika target bernilai nol; dan perlu modifikasi pada fungsi pencapaian dengan target-target bernilai negatif.26

Normalisasi nol-satu

Normalisasi nol-satu akan menskala setiap variabel deviasi agar bernilai diantara 0 sampai 1 dalam fungsi pencapaian. Dengan kata lain, normalisasi ini membandingkan besar penyimpangan dengan penyimpangan terburuk yang dapat terjadi, untuk setiap variabel deviasi. Suatu nilai batas yang realistis dapat ditetapkan bagi variabel deviasi yang bersifat unbounded (tidak terbatas). Fungsi pencapaian pada model akan berubah menjadi

min(d1+maxd1++d2maxd2+d3maxd3+d4maxd4),\min \left(\frac{d_1^+}{\max d_1^+} + \frac{d_2^-}{\max d_2^-} + \frac{d_3^-}{\max d_3^-} + \frac{d_4^-}{\max d_4^-}\right),

dengan masing-masing nilai max\max didapatkan dari optimisasi satu-objektif (model LP standar) dari kendala-kendala model GP di atas. Variasi lain dari normalisasi ini adalah membagi setiap variabel deviasi dengan rentang nilainya. Hal ini mengakibatkan fungsi pencapaian memiliki bentuk

min(d1+maxd1+mind1++d2maxd2mind2+d3maxd3mind3+d4maxd4mind4).\min \left(\frac{d_1^+}{\max d_1^+ - \min d_1^+} + \frac{d_2^-}{\max d_2^- - \min d_2^-} + \frac{d_3^-}{\max d_3^- - \min d_3^-} + \frac{d_4^-}{\max d_4^- - \min d_4^-}\right).

Metode ini cocok pada kasus permasalahan dengan setiap objektif memiliki interval nilai yang jelas, dan setiap solusi pada ruang solusi ingin diperhatikan pengambil keputusan. Namun, tujuan yang tidak terbatas (tidak memiliki batas penyimpangan terburuk), atau masalah dengan ruang solusi yang unbounded, dapat menghasilkan solusi-solusi yang tidak relevan ketika menggunakan normalisasi ini. Selain itu, normalisasi nol-satu memerlukan optimisasi satu-objektif sebanyak variabel deviasi yang disertakan dalam fungsi pencapaian. Hal ini mungkin tidak praktis pada masalah yang kompleks dengan waktu komputasi yang lama.

Normalisasi Euklides

Pada beberapa kasus, model GP perlu mengukur jarak geometris antara nilai suatu tujuan dengan targetnya, ketimbang mengukur besar deviasi diantara mereka. Sebagai contoh, titik (20,20)(20,\,20) pada tujuan pertama, memiliki jarak geometris sebesar 1212 dari target 560560. Perubahan satuan pengukuran maupun magnitudo nilai dalam tujuan ini tidak akan mengubah jarak geometris tersebut. Oleh karena itu, normalisasi perlu dilakukan agar setiap variabel deviasi dapat mengukur jarak Euklides nilai tujuan dari targetnya.25 Untuk contoh masalah GP di atas, fungsi pencapaian pada model akan berubah menjadi

min(d1+42+32+d21002+1502+d312+d412).\min \left(\frac{d_1^+}{\sqrt{4^2+3^2}} + \frac{d_2^-}{\sqrt{100^2+150^2}} + \frac{d_3^-}{\sqrt{1^2}} + \frac{d_4^-}{\sqrt{1^2}}\right).

Normalisasi Euklides kokoh secara komputasi; karena dapat dilakukan untuk setiap tujuan dan nilai target, dan tidak memerlukan optimisasi atau perhitungan yang kompleks untuk mendapatkan konstanta normalisasi. Akan tetapi, dua jenis permasalahan terkait metode ini dapat dilihat dari fungsi pencapaian yang dihasilkan. Pertama, normalisasi ini tidak mempertimbangkan nilai target sehingga menghasilkan konstanta yang rendah untuk tujuan ke-3 dan ke-4. Sedangkan permasalahan kedua, berbeda dengan kedua normalisasi sebelumnya, nilai optimal yang dihasilkan oleh fungsi pencapaian tidak memiliki makna yang mudah diintepretasikan. Karena dua hal tersebut, normalisasi ini sebaiknya digunakan untuk kasus permasalahan yang tidak praktis untuk menggunakan normalisasi persentase maupun nol-satu.27

Normalisasi lainnya

Terdapat beberapa normalisasi lainnya yang dipertimbangkan dan digunakan dalam literatur. Normalisasi penjumlahan akan membagi masing-masing variabel deviasi dengan jumlah mutlak dari koefisien-koefisien kendala lunak.26 Pada contoh masalah, variabel d2d_2^- akan dinormalisasi menjadi

d2|100|+|150|\frac{d_2^-}{|100|+|150|}

Metode ini memiliki pembagi yang lebih besar daripada metode Euklides, dan terbukti lebih baik dalam menskalakan masalah yang sulit untuk dibandingkan. Metode ini sama kokohnya dengan metode Euklides, tapi tidak memberikan makna berarti pada nilai fungsi pencapaian. Lebih lanjut, Tamiz dan Jones mengembangkan metode hibrida untuk menentukan jenis normalisasi – Euklides atau penjumlahan – yang cocok untuk setiap tujuan dalam model.28 Di lain pihak, Romero membahas metode yang menggabungan normalisasi persentase dan Euklides, dan konsekuensi dari penggunaannya.25

Restorasi Solusi

Filosofi yang mendasari model GP adalah teori Simon tentang satisficing.2930 Filosofi ini diterapkan dengan mencoba sebisa mungkin memenuhi sekumpulan nilai target yang ditetapkan oleh pengambil keputusan. Akan tetapi, model GP yang juga mencakup elemen-elemen dari filosofi optimising, karena dikembangkan dari sudut pandang pemrograman linear. Secara matematis, model GP merupakan sebuah optimasi tunggal atau serangkaian optimasi yang saling terkait. Menggabungkan kedua filosofi pengambilan keputusan tersebut mengakibatkan model GP dapat menghasilkan solusi tak-efisien Pareto – yakni, solusi dengan nilai satu atau lebih tujuan yang dapat dibuat lebih baik, tanpa membuat nilai tujuan-tujuan yang lain menjadi lebih buruk.31

Beberapa metode telah dikembangkan untuk mendeteksi dan memperbaiki solusi tak-efisien Pareto yang dihasilkan model GP. Sebelum metode restorasi dapat dilakukan, setiap tujuan harus dijaga agar nilainya tidak mengalami degradasi. Hal ini dapat dicapai dengan menempatkan batas atas atau bawah pada variabel deviasi. Sebagai contoh, misalkan masalah LGP

min[d1,5d2+2d3+]f1(𝐱)d1++d1=b1f2(𝐱)d2++d2=b2f3(𝐱)d3++d3=b3di+,di0untuk i=1,,mxj0untuk j=1,,n\begin{gather*} \min \; \left[d_1^- ,\, 5d_2^- + 2d_3^+\right]\\ \begin{aligned} f_1(\mathbf{x}) - d_1^+ + d_1^- &= b_1\\ f_2(\mathbf{x}) - d_2^+ + d_2^- &= b_2\\ f_3(\mathbf{x}) - d_3^+ + d_3^- &= b_3\\ d_i^+,\,d_i^- &\geq 0 &&\text{untuk }i=1,\,\dots,\,m\\ x_j &\geq 0 &&\text{untuk }j=1,\,\dots,\,n \end{aligned} \end{gather*}

menghasilkan solusi (yang mungkin tak-efisien Pareto) dengan variabel-variabel deviasi bernilai

((d1+)*,(d1)*,(d2+)*,(d2)*,(d3+)*,(d3)*)\left( (d_1^+)^*,\, (d_1^-)^*,\, (d_2^+)^*,\, (d_2^-)^*,\, (d_3^+)^*,\, (d_3^-)^*\right)

Nilai tujuan-tujuan yang dihasilkan model dapat dijaga dengan menambahkan kendala-kendala berikut pada kendala model tersebut

d1(d1)*d2(d2)*d3+(d3+)*d1+(d1+)*d2+(d2+)*d3(d3)*\begin{equation*} \begin{gathered} d_1^- \leq (d_1^-)^* \\ d_2^- \leq (d_2^-)^* \\ d_3^+ \leq (d_3^+)^* \\ \end{gathered} \qquad \begin{gathered} d_1^+ \geq (d_1^+)^* \\ d_2^+ \geq (d_2^+)^* \\ d_3^- \geq (d_3^-)^* \\ \end{gathered} \end{equation*}

Dengan menyertakan batasan-batasan tersebut, setiap restorasi dalam tujuan apapun akan mengarah menuju batas efisien (efficient frontier). Mungkin terdapat banyak solusi pada batas efisien yang merupakan hasil dari proses restorasi. Metode restorasi yang baik akan memilih satu titik di antara sekumpulan solusi tersebut yang optimal sesuai dengan preferensi pengambil keputusan. Ada beberapa metode restorasi yang mungkin dilakukan, dan diuraikan di bawah ini.32

Restorasi langsung

Pada metode ini, variabel-variabel deviasi yang tidak diperhatikan pada setiap tujuan dalam penyelesaian model GP akan dimaksimumkan.143334 Hal ini dilakukan dengan menambahkan satu prioritas tambahan pada fungsi pencapaian LGP, atau dengan mengonversi varian WGP menjadi LGP dengan dua tingkat prioritas. Sebagai contoh, fungsi pencapaian pada contoh di atas berubah menjadi

min[d1,5d2+2d3+,(d1++d2++d3)].\min \; \left[d_1^-,\, 5d_2^- + 2d_3^+,\, -(d_1^+ + d_2^+ + d_3^-)\right].

Metode ini akan memastikan solusi yang dihasilkan bersifat efisien Pareto, asalkan model masalah awal terbatas Pareto (Pareto bounded) – tidak ada tujuan yang selalu dapat dibuat menjadi lebih baik. Akan tetapi, restorasi ini tidak mempertimbangkan bobot relatif pada setiap variabel deviasi.

Restorasi berbasis preferensi

Pada metode ini, variabel-variabel deviasi yang tidak diperhatikan akan dimaksimumkan, dengan cara yang berbeda dengan restorasi langsung. Restorasi ini menggunakan kembali bobot-bobot relatif dan/atau tingkat prioritas yang digunakan model awal.35 Sebagai contoh, restorasi berbasis preferensi untuk pencapaian pada contoh di atas adalah

min[d1,5d2+2d3+,(d1+),(5d2++2d3)]\min \; \left[d_1^-,\, 5d_2^- + 2d_3^+,\, -(d_1^+),\, -(5d_2^+ + 2d_3^-)\right]

Metode ini memastikan kontinuitas preferensi, baik di-bawah maupun di-atas nilai target, sehingga memastikan solusi efisien Pareto yang ditemukan sesuai dengan preferensi awal pengambil keputusan.

Restorasi interaktif

Dalam metode ini, serangkaian tujuan yang tidak efisien disajikan kepada pengambil keputusan. Selanjutnya mereka diminta untuk memilih tujuan yang paling mendesak untuk diperbaiki. Proses ini berlanjut secara berulang hingga solusi yang efisien dihasilkan.35 Restorasi interaktif mempertimbangkan fakta bahwa preferensi pengambil keputusan dapat tidak kontinu. Hal ini sering terjadi dalam penerapan model GP, sebagai contoh ketika beberapa tujuan mewakili standar yang harus dipenuhi (persyaratan hukum, standar lingkungan, dll.) sementara yang lain mewakili keinginan pengambil keputusan (biaya rendah, keuntungan tinggi, dll.).

Metode restorasi interaktif memiliki keuntungan dalam melibatkan pengambil keputusan dalam proses restorasi. Sebagai akibatnya, restorasi ini juga termasuk dalam metode multi-objektif interaktif.36 Untungnya, jumlah iterasi interaktif yang diperlukan untuk memperbaiki efisiensi solusi umumnya kecil.35

Formulasi model GP

Foo

Kritik dan miskonsepsi umum

Foo

Fenomena ini dilihat oleh beberapa peneliti dan penulis sebagai kelemahan mendasar dalam metodologi GP karena solusi yang dihasilkan berpotensi melanggar teori dasar analisis keputusan – tidak ada pengambil keputusan yang rasional, secara sadar akan memilih solusi tak-efisien Pareto. Sedangkan beberapa yang lain menganggap solusi-solusi GP harus dinilai dari seberapa baik mereka memenuhi tujuan dan praktis digunakan pengambil keputusan, karena GP berdasar pada filosofi satisficing. Sudut pandang terakhir mengganggap solusi model GP yang tak-efisien Pareto disebabkan terutama oleh kombinasi formulasi masalah dan penentuan tingkat target yang buruk oleh analis yang membuat model GP. Schniederjans menyusun referensi yang lebih mendetail mengenai sudut-sudut pandang ini.13

Proses penyusunan model yang baik

Foo

penentuan bobot: Saaty, Zeleny; If this model is deemed to be more appropriate, the analyst must determine values for the wi reflecting the decision maker’s fuzzy estimates. This can be accomplished by applying methods introduced by either Saaty [4] or Zeleny [5] -- fuzzy [^by]

Perumuman

Dalam model GP, sifat matematis dari tujuan dan/atau variabel keputusan, maupun hubungan antar keduanya, dapat diperumum menyesuaikan masalah nyata yang diteliti. Model yang dihasilkan ini berbeda dengan model-model dalam bagian ¶ Varian, yang mencatat variasi metrik dan fungsi utilitas model yang umum. Pada kenyataannya, banyak implementasi model GP disusun dari gabungan dari dua atau lebih variasi, dan dapat memiliki beberapa nama berbeda. Berikut adalah beberapa perumuman model GP secara garis besar.173738

GP Interval

GP interval adalah salah satu cara tertua untuk memperbesar struktur preferensi dalam model GP. Charnes dan Collomb (1972) mengusulkan sebuah model untuk memperlonggar syarat setiap nilai target dapat didefinisikan dengan pasti.39 Dalam model ini, mereka memungkinkan pengambil keputusan untuk menentukan interval kepuasan dan menetapkan penalti untuk nilai deviasi yang tidak termasuk dalam interval tersebut.

Metode ini berdasar pada LP interval, dengan suatu nilai batas bawah Lb_Lb dan suatu nilai batas atas Ub_Ub menjadi batas interval untuk nilai ekspresi di ruas-kanan; secara matematis:

Lbifi(𝐱)Ubi.{_Lb_i} \leq f_i(\mathbf{x}) \leq {_Ub_i}.

Bentuk GP interval yang bersesuaian dapat dihasilkan dengan menggunakan dua pasang variabel deviasi:

fi(𝐱)Udi++Udi=Ubifi(𝐱)Ldi++Ldi=Lbi.\begin{align*} f_i(\mathbf{x}) - {_Ud_i}^+ + {_Ud_i}^- &= {_Ub_i}\\ f_i(\mathbf{x}) - \,{_Ld_i}^+ + \,{_Ld_i}^- &= \,{_Lb_i}.\\ \end{align*}

Variabel deviasi Udi+{_Ud_i}^+ dan Ldi{_Ld_i}^- perlu diminimumkan dalam fungsi pencapaian, sedangkan variabel deviasi yang lain diperbolehkan mengambil nilai yang dihasilkan dari hasil optimasi.40 GP Interval dapat digunakan untuk menyelesaikan banyak masalah formulasi yang umumnya digunakan untuk mengkritik model-model GP, seperti penetapan besar nilai (yang spefisik) target untuk setiap tujuan.41

Dalam aspek teoritis, pembaca dapat membaca bukti-bukti dasar yang diberikan oleh Charnes dan Cooper.42 Beberapa penelitian juga telah dilakukan terkait penggunaan interval pada nilai pembobotan dan/atau target,43 penggunaan relasi preferensi,44 dan penggunaan analisis sensitivitas.45 Sedangkan beberapa penelitian lain telah dilakukan untuk merangkum dan menyatukan banyak macam penggunaan GP interval.4647

GP Samar

GP Samar (fuzzy GP) salah satu cara selain GP Interval untuk menangani ketidakpastian nilai dalam model GP. Ketidakpastian ini umumnya berhubungan dengan besar nilai target bib_i, tapi juga dapat dikembangkan untuk aspek-aspek GP yang lain seperti struktur prioritas. Konsep GP samar didasarkan pada fungsi keanggotaan samar (fuzzy membership function) dalam teori himpunan samar,48 menyatakan besar bobot maupun rentang realisasi nilai tujuan. Sebagai contoh, jika kita ingin memaksimumkan fungsi keuntungan pada rentang nilai lima sampai dengan enam juta rupiah, kita dapat memberikan bobot 00 pada keuntungan dibawah lima juta, bobot 0.50.5 untuk keuntungan lima setengah juta, dan 1.01.0 untuk keuntungan di atas enam juta rupiah. Hubungan antara pembobotan dan fungsi keuntungan dapat bersifat non-linear. Hal ini memungkinkan pengambil keputusan yang tidak dapat menyatakan tujuan-tujuan dengan pasti, untuk setidaknya menyatakannya dalam bentuk bobot dan rentang realisasi nilai. Hal ini membuat GP samar sebagai pendekatan yang baik ketika tujuan-tujuan dalam model GP memiliki sifat fungsi utilitas.49

Fungsi keanggotaan samar yang digunakan model GP memiliki nilai 11 untuk keadaan “puas seluruhnya” dan nilai 00 untuk keadan “tidak-puas seluruhnya”. Bentuk aljabar dari salah satu bentuk fungsi keanggotaan samar linear yang umum digunakan adalah fungsi trapesium:50

μ[fi(𝐱)]{0fi(𝐱)Lbinmax1Lbifi(𝐱)nmaxLbinmaxfi(𝐱)Lbi1Lbifi(𝐱)Ubi1fi(𝐱)UbipmaxUbifi(𝐱)Ubi+pmax0Ubi+pmaxfi(𝐱).\mu \left[ f_i(\mathbf{x})\right] \begin{cases} 0 & f_i(\mathbf{x}) \leq {_Lb_i} - n_{\max{}} \\ 1 - \frac{_Lb_i - f_i(\mathbf{x})}{n_{\max{}}} & {_Lb_i} - n_{\max{}} \leq f_i(\mathbf{x}) \leq {_Lb_i} \\ 1 & {_Lb_i} \leq f_i(\mathbf{x}) \leq {_Ub_i} \\ 1 - \frac{f_i(\mathbf{x}) - {_Ub_i}}{p_{\max{}}} & {_Ub_i} \leq f_i(\mathbf{x}) \leq {_Ub_i} + p_{\max{}} \\ 0 & {_Ub_i} + p_{\max{}} \leq f_i(\mathbf{x}).\\ \end{cases}

Fungsi μ[fi(𝐱)]\mu \left[ f_i(\mathbf{x})\right] tersebut menyatakan fungsi keanggotaan samar untuk tujuan ke-ii, dengan rentang nilai [Lbi,Ubi]\left[{_Lb_i},\,{_Ub_i}\right] menyatakan daerah nilai fungsi fi(𝐱)f_i(\mathbf{x})memuaskan seluruhnya”. Sedangkan, nilai fungsi di luar rentang [Lbinmax,Ubi+pmax]\left[{_Lb_i} - n_{\max{}} ,\, {_Ub_i} + p_{\max{}}\right] dianggap “tidak memuaskan sama sekali”. Yaghoobi berhasil menyusun model yang menyatukan empat fungsi keanggotaan samar yang umum digunakan: segitiga, sisi-kiri, sisi-kanan, dan trapesium.51 Sebagai contoh, jika semua tujuan dalam permasalahan dapat dianggap sebagai fungsi trapesium tersebut, model GP yang diselesaikan dapat ditulis secara aljabar sebagai berikut:

mini=1Qwi(di+pmax+dinmax)μi+di+pmax+dinmax=1fi(𝐱)di+Ubifi(𝐱)+diLbiμi,di+,di0untuk i=1,,Qxj0untuk j=1,,n.\begin{gather*} \min \; \sum_{i=1}^Q w_i\left( \frac{d_i^+}{p_{\max{}}} + \frac{d_i^-}{n_{\max{}}}\right)\\ \begin{aligned} \mu_i + \frac{d_i^+}{p_{\max{}}} + \frac{d_i^-}{n_{\max{}}} &= 1\\ f_i(\mathbf{x}) - d_i^+ &\leq {_Ub_i}\\ f_i(\mathbf{x}) + d_i^- &\geq {_Lb_i}\\ \mu_i,\, d_i^+,\,d_i^- &\geq 0 &&\text{untuk }i=1,\,\dots,\,Q\\ x_j &\geq 0 &&\text{untuk }j=1,\,\dots,\,n. \end{aligned} \end{gather*}

Pada model tersebut, μi\mu_i menyatakan besar nilai keanggotaan samar (kepuasan) untuk fungsi tujuan ke-ii. Formulasi model oleh Yaghoobi memungkinkan GP berbobot samar diselesaikan menggunakan sembarang software pemrograman linear standar.

Canna

Pengembangan model GP samar pada masa awal didasarkan pada model GP Chebyshev,5253 dan model GP berbobot5354.55

For citations on fuzzy GP methodology see Table 3-10.

Integer and Binary GP

Fractional GP

Non-linear GP

Simplex-based

Gradient-based

Stochastic-based

Interactive GP

DLL

Hubungan dengan metode optimisasi dan MCDM lainnya

ELGP dan FELGP

Penerapan

Daftar pustaka

Buku

Makalah dan Bab Buku

Referensi

  1. Jones and Tamiz, “Underlying Philosophies,” in Practical Goal Programming. pg. 6-7. 

  2. Jones, Tamiz, and Ries, “A Review of Goal Programming for Portfolio Selection,” in New Developments in Multiple Objective and Goal Programming. 

  3. Wheeler and Russell, “Goal Programming and Agricultural Planning.” 

  4. Azaiez and Al Sharif, “A 0-1 Goal Programming Model for Nurse Scheduling.” 

  5. Charnes, Cooper, and Ferguson, “Optimal Estimation of Executive Compensation by Linear Programming.” Abstract: “Linear programming, as an optimizing method for handling a mass of interacting variables, has received considerable attention in applications to such problems as production scheduling, logistics, and mobilization studies. But linear programming may also be used in a variety of other ways. This paper is concerned with one such alternative use. It will be shown how, by appropriate adaptations, the methods of linear programming may be used to obtain estimates of parameters when more usual methods, such as ‘least squares,’ are difficult or impossible to apply.” 

  6. Jones and Tamiz, Practical Goal Programming. pg. 1. While the term goal programming did not appear in this 1955 article, this paper did present a constrained regression idea that embodies the deviation minimizing approach inherent in GP 

  7. Charnes and Cooper, Management Models and Industrial Applications of Linear Programming.  2

  8. Ijiri, Management Goals and Accounting for Control.  2

  9. Lee, Goal Programming for Decision Analysis.  2

  10. Ignizio, Goal Programming and Extensions. 

  11. Jones and Tamiz, Practical Goal Programming. pg. 1. The relatively straightforward ease of which a goal programme could be formulated and the familiarity of practitioners and academics with linear programming methodology ensured that goal programming quickly rose to become the most popular technique within the field of multi-criteria decision making (MCDM). 

  12. Jones and Tamiz, Practical Goal Programming. pg. 1. Although goal programming can correctly be viewed as a generalisation of linear programming, it is also a bona fide multi-criteria decision-making technique. …. Thus goal programming came under criticism in the 1980s because of some basic errors caused, in our opinion, by lack of awareness of good MCDM practice. 

  13. Schniederjans, “Goal Programming Model Formulation Strategies,” in Goal Programming. pg. 21-44.  2

  14. Romero, Handbook of Critical Issues in Goal Programming.  2 3

  15. Jones and Tamiz, Practical Goal Programming. pg. 1. This debate culminated in the publication of a key textbook by Romero (1991) in which good goal programming practice is detailed and the problems shown to be due more to poor modelling practice rather than any fundamental deficiency in goal programming. 

  16. Schniederjans, Goal Programming. 

  17. Jones and Tamiz, “Goal Programming in the Period 1990–2000.” in Multiple Criteria Optimization: State of the Art Annotated Bibliographic Surveys.  2 3

  18. Jones and Tamiz, Practical Goal Programming. 

  19. Lebih spesifik, kendala-kendala yang dapat menolerasi penyimpangan yang tidak diinginkan dari nilai batas mereka. Sebagai contoh dalam masalah perencanaan, pengambil keputusan mungkin dapat menolerasi solusi yang memerlukan total biaya (sebuah kendala) melebihi suatu batas nilai tertentu; tentunya selama selisih total biaya dari nilai tersebut tidak besar

  20. Schniederjans, Goal Programming. pg. 4. While Charnes and Cooper did not present a general GP model statement in their 1961 book, a generally accepted statement of this type of GP model was presented in Charnes and Cooper (1977).  2

  21. Notasi yang lebih tepat untuk menyatakan keadaan ini adalah

    i=1m(ui+di++uidi),\sum_{i=1}^m(u_i^+d_i^++u_i^-d_i^-),

    dengan ui+u_i^+ dan uiu_i^- bernilai biner yang masing-masing menandakan jika di+d_i^+ dan did_i^- perlu diikutkan dalam proses optimisasi. Namun mendasarkan pada bentuk ini akan mudah menghasilkan variabel-variabel tambahan (yang kurang berarti) ketika kita masuk ke bagian varian-varian model GP, yang menggunakan lebih banyak simbol. 

  22. Ignizio and Cavalier, Linear Programming. Referensi belum dapat diverifikasi. 

  23. Tamiz, Jones, and El-Darzi, “A Review of Goal Programming and Its Applications.” 

  24. Jones and Tamiz, Practical Goal Programming. pg. 34-38. 

  25. Romero, “Naive Setting of Weights in GP,” in Handbook of Critical Issues in Goal Programming. pg. 39-43.  2 3

  26. Jones, “The Design and Development of an Intelligent Goal Programming System.”  2

  27. Jones and Tamiz, Practical Goal Programming. pg. 38. Hence, in our opinion, this normalisation scheme should be reserved for cases in which it is impractical to apply either percentage or zero–one normalisation. 

  28. Tamiz and Jones, “An Example of Good Modelling Practice in Goal Programming.” 

  29. Jones and Tamiz, “Underlying Philosophies,” in Practical Goal Programming. pg. 6-9. 

  30. Simon, “A Behavioral Model of Rational Choice.” 

  31. Jones and Tamiz, Practical Goal Programming. pg. 95-96. 

  32. Tamiz, Jones, and Romero, “Goal Programming for Decision Making.” 

  33. Hannan, “Nondominance In Goal Programming.” 

  34. Masud and Hwang, “Interactive Sequential Goal Programming.” 

  35. Tamiz and Jones, “Goal Programming and Pareto Efficiency.”  2 3

  36. Tamiz and Jones, “Interactive Frameworks for Investigation of Goal Programming Models.” 

  37. Jones and Tamiz, “Decision Variable and Goal-Based Variants,” in Practical Goal Programming. pg. 16-22. 

  38. Schniederjans, “Goal Programming Solution Methodology,” in Goal Programming. pg. 45-72. 

  39. Charnes and Collomb, “Optimal Economic Stabilization Policy.” 

  40. Ignizio, “Interval Goal Programming,” in Linear Programming in Single- & Multiple-Objective Systems. pg. 487-490. 

  41. Min and Storbeck, “On the Origin and Persistence of Misconceptions in Goal Programming.” pg. 306-307. 

  42. Charnes and Cooper, “Goal interval programs” in Goal Programming and Multiple Objective Optimizations. 

  43. Inuiguchi and Kume, “Goal Programming Problems with Interval Coefficients and Target Intervals.” 

  44. Chanas and Kuchta, “Multiobjective Programming in Optimization of Interval Objective Functions — A Generalized Approach.” 

  45. Steuer, “Goal Programming Sensitivity Analysis Using Interval Penalty Weights.” 

  46. Vitoriano and Romero, “Extended Interval Goal Programming.” 

  47. Lu and Chen, “Efficient Model for Interval Goal Programming with Arbitrary Penalty Function.” 

  48. Zadeh, “Fuzzy Sets.” 

  49. Schniederjans, “Other GP Algorithms and Methodology,” in Goal Programming. pg. 58-61. 

  50. Jones and Tamiz, “Fuzzy Goal Programming,” in Practical Goal Programming. pg. 17-20. 

  51. Yaghoobi, Jones, and Tamiz, “Weighted Additive Models for Solving Fuzzy Goal Programming Problems.” 

  52. Narasimhan, “Goal Programming in a Fuzzy Environment.”  2

  53. Hannan, “On Fuzzy Goal Programming*.”  2 3

  54. Tiwari, Dharmar, and Rao, “Fuzzy Goal Programming — An Additive Model.”  2

  55. Jones and Tamiz, “Fuzzy Goal Programming” in Practical Goal Programming. pg. 17. “The early fuzzy goal programming models used both Chebyshev (Narasimhan, 1980; Hannan, 1981) and weighted (Hannan, 1981; Tiwari et al., 1987) distance metrics”